programing

파일에 있는 모든 숫자를 빠르게 합산하려면 어떻게 해야 합니까?

batch 2023. 4. 16. 14:45
반응형

파일에 있는 모든 숫자를 빠르게 합산하려면 어떻게 해야 합니까?

각각 수천 개의 번호가 포함된 파일이 있습니다.

34
42
11
6
2
99
...

파일 내의 모든 숫자의 합계를 인쇄하는 스크립트를 작성하려고 합니다.솔루션은 있지만 효율은 그다지 높지 않습니다.(실행에는 몇 분 걸립니다.)좀 더 효율적인 해결책을 찾고 있어요.좋은 의견이라도 있나?

awk를 사용할 수 있습니다.

awk '{ sum += $1 } END { print sum }' file

에서는, 어떠한 것도 사용하지 .paste여기 하나 있습니다.

paste -sd+ filename | bc

줄바꿈이 경우 의 줄바꿈, 후행의 입니다.+구문 오류가 발생합니다.합니다.+:

paste -sd+ fiilename | sed 's/+$//g' | bc

예를 들어 1 <=n <=100000:

$ seq 100000 | paste -sd+ | bc -l
5000050000

을 위해)seq n1로로 합니다.nn

기본적으로 Perl과 .awkAyman Hourieh의 답변에 있는 해결책:

 % perl -nle '$sum += $_ } END { print $sum'

Perl 한 줄의 기능이 궁금하다면 분석을 취소할 수 있습니다.

 %  perl -MO=Deparse -nle '$sum += $_ } END { print $sum'

그 결과, 프로그램의 보다 장황한 버전이 완성되어, 아무도 스스로 작성하지 않는 형태로 되어 있습니다.

BEGIN { $/ = "\n"; $\ = "\n"; }
LINE: while (defined($_ = <ARGV>)) {
    chomp $_;
    $sum += $_;
}
sub END {
    print $sum;
}
-e syntax OK

그냥 낄낄대며 1,000,000개의 숫자(0~999의 범위)를 포함한 파일로 시도했습니다.에 Mac Pro 、 에의에에에 에에에 에에 。mmap정말 빠르겠지만 같은 시간이네요.

use 5.010;
use File::Map qw(map_file);

map_file my $map, $ARGV[0];

$sum += $1 while $map =~ m/(\d+)/g;

say $sum;

재미삼아 벤치마크를 해보겠습니다.

$ for ((i=0; i<1000000; i++)) ; do echo $RANDOM; done > random_numbers

$ time perl -nle '$sum += $_ } END { print $sum' random_numbers
16379866392

real    0m0.226s
user    0m0.219s
sys     0m0.002s

$ time awk '{ sum += $1 } END { print sum }' random_numbers
16379866392

real    0m0.311s
user    0m0.304s
sys     0m0.005s

$ time { { tr "\n" + < random_numbers ; echo 0; } | bc; }
16379866392

real    0m0.445s
user    0m0.438s
sys     0m0.024s

$ time { s=0;while read l; do s=$((s+$l));done<random_numbers;echo $s; }
16379866392

real    0m9.309s
user    0m8.404s
sys     0m0.887s

$ time { s=0;while read l; do ((s+=l));done<random_numbers;echo $s; }
16379866392

real    0m7.191s
user    0m6.402s
sys     0m0.776s

$ time { sed ':a;N;s/\n/+/;ta' random_numbers|bc; }
^C

real    4m53.413s
user    4m52.584s
sys 0m0.052s

나는 5분 후에 sed run을 중단했다.


로 다이빙을 해봤는데 속도가 빨라요

$ time lua -e 'sum=0; for line in io.lines() do sum=sum+line end; print(sum)' < random_numbers
16388542582.0

real    0m0.362s
user    0m0.313s
sys     0m0.063s

업데이트 하는 동안 루비:

$ time ruby -e 'sum = 0; File.foreach(ARGV.shift) {|line| sum+=line.to_i}; puts sum' random_numbers
16388542582

real    0m0.378s
user    0m0.297s
sys     0m0.078s

에 귀 기울이십시오. Morton 사용:$1

$ time awk '{ sum += $1 } END { print sum }' random_numbers
16388542582

real    0m0.421s
user    0m0.359s
sys     0m0.063s

사용 vs 용용$0

$ time awk '{ sum += $0 } END { print sum }' random_numbers
16388542582

real    0m0.302s
user    0m0.234s
sys     0m0.063s

하나의 은 ' 낫다'를 하는 것입니다.jq:

$ seq 10|jq -s add
55

-s )--slurp는 입력 행을 어레이로 읽습니다.

이게 스트레이트 배쉬입니다.

sum=0
while read -r line
do
    (( sum += line ))
done < file
echo $sum

이 경우 R을 사용하는 것이 좋습니다.

$ R -e 'sum(scan("filename"))'

여기 원라이너가 하나 더 있습니다.

( echo 0 ; sed 's/$/ +/' foo ; echo p ) | dc

이것은 숫자가 정수라고 가정합니다.소수점 이하가 필요한 경우

( echo 0 2k ; sed 's/$/ +/' foo ; echo p ) | dc

2를 필요한 소수점 수로 조정합니다.

Perl 6

say sum lines
~$ perl6 -e '.say for 0..1000000' > test.in

~$ perl6 -e 'say sum lines' < test.in
500000500000

이러한 태스크에는 GNU datamash를 사용하는 것이 좋습니다.이는 펄이나 awk보다 간결하고 읽기 쉽기 때문입니다.예를들면

datamash sum 1 < myfile

여기서 1은 데이터의 첫 번째 열을 나타냅니다.

$ perl -MList::Util=sum -le 'print sum <>' nums.txt

보다 간결하게:

# Ruby
ruby -e 'puts open("random_numbers").map(&:to_i).reduce(:+)'

# Python
python -c 'print(sum(int(l) for l in open("random_numbers")))'

그냥 지나칠 수가...여기 내 해스켈 원라이너야.실제로 꽤 읽을 수 있습니다.

sum <$> (read <$>) <$> lines <$> getContents

ghci -e주요 기능인 인쇄와 컴파일이 필요합니다.

main = (sum <$> (read <$>) <$> lines <$> getContents) >>= print

.getContents.lines,read와 자 sum<$>fmap- 이이 IOoperator - 인 함수 합니다. readfmap이치노

$ ghc sum.hs
[1 of 1] Compiling Main             ( sum.hs, sum.o )
Linking sum ...
$ ./sum 
1
2
4
^D
7

다음은 플로트와 함께 작동하도록 하기 위한 이상한 업그레이드입니다.

main = ((0.0 + ) <$> sum <$> (read <$>) <$> lines <$> getContents) >>= print
$ ./sum 
1.3
2.1
4.2
^D
7.6000000000000005
cat nums | perl -ne '$sum += $_ } { print $sum'

(brian d foy의 답변과 같으며 'END'는 제외)

재미삼아 Perl의 어레이 연산 엔진인 PDL을 사용해 보겠습니다.

perl -MPDL -E 'say rcols(shift)->sum' datafile

rcols는 열을 행렬과 행렬(이 경우 1D)로.sum행렬의 모든 요소를 합산합니다.

다음은 생성기 표현과 함께 python을 사용하는 솔루션입니다.낡은 낡은 노트북으로 백만 개의 숫자를 테스트했습니다.

time python -c "import sys; print sum((float(l) for l in sys.stdin))" < file

real    0m0.619s
user    0m0.512s
sys     0m0.028s

C++ "원라이너":

#include <iostream>
#include <iterator>
#include <numeric>
using namespace std;

int main() {
    cout << accumulate(istream_iterator<int>(cin), istream_iterator<int>(), 0) << endl;
}
sed ':a;N;s/\n/+/;ta' file|bc

R 스크립트 실행

파일명의 인수를 받아 행의 합을 취하기 위한 R 스크립트를 작성했습니다.

#! /usr/local/bin/R
file=commandArgs(trailingOnly=TRUE)[1]
sum(as.numeric(readLines(file)))

이것은 다음과 같이 "data.table" 또는 "vroom" 패키지로 고속화할 수 있습니다.

#! /usr/local/bin/R
file=commandArgs(trailingOnly=TRUE)[1]
sum(data.table::fread(file))
#! /usr/local/bin/R
file=commandArgs(trailingOnly=TRUE)[1]
sum(vroom::vroom(file))

벤치마킹

@glenn jackman과 동일한 벤치마크 데이터.

for ((i=0; i<1000000; i++)) ; do echo $RANDOM; done > random_numbers

위의 R 콜과 비교하여 스크립트로서 R 3.5.0을 실행하는 것은 (같은 Linux Debian 서버상의) 다른 메서드와 동등합니다.

$ time R -e 'sum(scan("random_numbers"))'  
 0.37s user
 0.04s system
 86% cpu
 0.478 total

readLines가 있는 R 스크립트

$ time Rscript sum.R random_numbers
  0.53s user
  0.04s system
  84% cpu
  0.679 total

data.table이 있는 R 스크립트

$ time Rscript sum.R random_numbers     
 0.30s user
 0.05s system
 77% cpu
 0.453 total

R 스크립트(vroom 포함)

$ time Rscript sum.R random_numbers     
  0.54s user 
  0.11s system
  93% cpu
  0.696 total

다른 언어와의 비교

같은 하드웨어에서 권장되는 다른 방법으로 참조할 수 있습니다.

Python 2 (2.7.13)

$ time python2 -c "import sys; print sum((float(l) for l in sys.stdin))" < random_numbers 
 0.27s user 0.00s system 89% cpu 0.298 total

Python 3 (3.6.8)

$ time python3 -c "import sys; print(sum((float(l) for l in sys.stdin)))" < random_number
0.37s user 0.02s system 98% cpu 0.393 total

루비(2.3.3)

$  time ruby -e 'sum = 0; File.foreach(ARGV.shift) {|line| sum+=line.to_i}; puts sum' random_numbers
 0.42s user
 0.03s system
 72% cpu
 0.625 total

Perl (5.24.1)

$ time perl -nle '$sum += $_ } END { print $sum' random_numbers
 0.24s user
 0.01s system
 99% cpu
 0.249 total

Awk(4.1.4)

$ time awk '{ sum += $0 } END { print sum }' random_numbers
 0.26s user
 0.01s system
 99% cpu
 0.265 total
$ time awk '{ sum += $1 } END { print sum }' random_numbers
 0.34s user
 0.01s system
 99% cpu
 0.354 total

C(Clang 버전 3.3; gcc(Debian 6.3.0-18) 6.3.0)

 $ gcc sum.c -o sum && time ./sum < random_numbers   
 0.10s user
 0.00s system
 96% cpu
 0.108 total

추가 언어로 업데이트

루아(5.3.5)

$ time lua -e 'sum=0; for line in io.lines() do sum=sum+line end; print(sum)' < random_numbers 
 0.30s user 
 0.01s system
 98% cpu
 0.312 total

tr(8.26)은 zsh와 호환되지 않고 bash 단위로 시간 설정되어야 합니다.

$time { { tr "\n" + < random_numbers ; echo 0; } | bc; }
real    0m0.494s
user    0m0.488s
sys 0m0.044s

sed(4.4)는 zsh와 호환되지 않고 bash 단위로 시간을 설정해야 합니다.

$  time { head -n 10000 random_numbers | sed ':a;N;s/\n/+/;ta' |bc; }
real    0m0.631s
user    0m0.628s
sys     0m0.008s
$  time { head -n 100000 random_numbers | sed ':a;N;s/\n/+/;ta' |bc; }
real    1m2.593s
user    1m2.588s
sys     0m0.012s

주의: sed 콜은 사용 가능한 메모리가 많은 시스템에서 더 빠르게 동작하는 것 같습니다(벤치마킹에 사용되는 작은 데이터셋에 주의).

줄리아(0.5.0)

$ time julia -e 'print(sum(readdlm("random_numbers")))'
 3.00s user 
 1.39s system 
 136% cpu 
 3.204 total
$  time julia -e 'print(sum(readtable("random_numbers")))'
 0.63s user 
 0.96s system 
 248% cpu 
 0.638 total

R과 같이 파일 I/O 방식은 성능이 다릅니다.

Bash 변종

raw=$(cat file)
echo $(( ${raw//$'\n'/+} ))

$ wc -l file
10000 file

$ time ./test
323390

real    0m3,096s
user    0m3,095s
sys     0m0,000s

여기서 무슨 일이 일어나고 있는 거야?파일의 내용을 $raw var로 읽습니다.그런 다음 모든 새 줄을 '+'로 변경하여 이 변수에서 산술문을 만드십시오.

또 하나는 재미로

sum=0;for i in $(cat file);do sum=$((sum+$i));done;echo $sum

또는 다른 bash 전용

s=0;while read l; do s=$((s+$l));done<file;echo $s

그러나 가장 컴팩트한 솔루션이기 때문에 아마 awk 솔루션이 가장 좋을 것입니다.

C는 항상 속도에서 이긴다.

#include <stdio.h>
#include <stdlib.h>

int main(int argc, char **argv) {
    ssize_t read;
    char *line = NULL;
    size_t len = 0;
    double sum = 0.0;

    while (read = getline(&line, &len, stdin) != -1) {
        sum += atof(line);
    }

    printf("%f", sum);
    return 0;
}

100만 번호 타이밍(내 python 답변과 동일한 기계/입력):

$ gcc sum.c -o sum && time ./sum < numbers 
5003371677.000000
real    0m0.188s
user    0m0.180s
sys     0m0.000s

Ruby 포함:

ruby -e "File.read('file.txt').split.inject(0){|mem, obj| mem += obj.to_f}"

이동 중:

package main

import (
    "bufio"
    "fmt"
    "os"
    "strconv"
)

func main() {
    scanner := bufio.NewScanner(os.Stdin)
    sum := int64(0)
    for scanner.Scan() {
        v, err := strconv.ParseInt(scanner.Text(), 10, 64)
        if err != nil {
            fmt.Fprintf(os.Stderr, "Not an integer: '%s'\n", scanner.Text())
            os.Exit(1)
        }
        sum += v
    }
    fmt.Println(sum)
}

파일 전체를 읽어봐야 하는데 이것보다 훨씬 더 나아질 수 있을지 모르겠네요.

$sum = 0;
while(<>){
   $sum += $_;
}
print $sum;

테스트한 적은 없지만 동작합니다.

cat f | tr "\n" "+" | sed 's/+$/\n/' | bc

bc가 EOF 및 EOL을 처리하지 않는 경우 bc 전에 (에코를 통해 등) 문자열에 "\n"을 추가해야 할 수 있습니다.

여기 또 있습니다.

open(FIL, "a.txt");

my $sum = 0;
foreach( <FIL> ) {chomp; $sum += $_;}

close(FIL);

print "Sum = $sum\n";

Alasql 데이터베이스의 Alacon 명령줄 유틸리티를 사용하여 실행할 수 있습니다.

Node.js와 연동되므로 Node.js를 설치한 후 다음 Aarasql 패키지를 설치해야 합니다.

TXT 파일에서 합계를 계산하려면 다음 명령을 사용합니다.

> node alacon "SELECT VALUE SUM([0]) FROM TXT('mydata.txt')"

모든 신규 회선을 다음과 같이 치환하는 것은 쉽지 않습니다.+, 를 추가합니다.0에 송신합니다.Ruby통역사?

(sed -e "s/$/+/" file; echo 0)|irb

없는 경우irb에 송신할 수 있습니다.bc단, 마지막 행을 제외한 모든 새 행을 삭제해야 합니다.echo를 사용하는 것이 좋습니다.tr박사학위를 가지고 있지 않다면sed.

(sed -e "s/$/+/" file|tr -d "\n"; echo 0)|bc

awk를 사용한 셸에서는, 다음의 스크립트를 사용하고 있습니다.

    #!/bin/bash


total=0;

for i in $( awk '{ print $1; }' <myfile> )
do
 total=$(echo $total+$i | bc )
 ((count++))
done
echo "scale=2; $total " | bc

언급URL : https://stackoverflow.com/questions/2702564/how-can-i-quickly-sum-all-numbers-in-a-file

반응형