파일에 있는 모든 숫자를 빠르게 합산하려면 어떻게 해야 합니까?
각각 수천 개의 번호가 포함된 파일이 있습니다.
34
42
11
6
2
99
...
파일 내의 모든 숫자의 합계를 인쇄하는 스크립트를 작성하려고 합니다.솔루션은 있지만 효율은 그다지 높지 않습니다.(실행에는 몇 분 걸립니다.)좀 더 효율적인 해결책을 찾고 있어요.좋은 의견이라도 있나?
awk를 사용할 수 있습니다.
awk '{ sum += $1 } END { print sum }' file
에서는, 어떠한 것도 사용하지 .paste
여기 하나 있습니다.
paste -sd+ filename | bc
줄바꿈이 경우 의 줄바꿈, 후행의 입니다.+
구문 오류가 발생합니다.합니다.+
:
paste -sd+ fiilename | sed 's/+$//g' | bc
예를 들어 1 <=n <=100000:
$ seq 100000 | paste -sd+ | bc -l
5000050000
을 위해)seq n
1
로로 합니다.n
가 n
기본적으로 Perl과 .awk
Ayman Hourieh의 답변에 있는 해결책:
% perl -nle '$sum += $_ } END { print $sum'
Perl 한 줄의 기능이 궁금하다면 분석을 취소할 수 있습니다.
% perl -MO=Deparse -nle '$sum += $_ } END { print $sum'
그 결과, 프로그램의 보다 장황한 버전이 완성되어, 아무도 스스로 작성하지 않는 형태로 되어 있습니다.
BEGIN { $/ = "\n"; $\ = "\n"; }
LINE: while (defined($_ = <ARGV>)) {
chomp $_;
$sum += $_;
}
sub END {
print $sum;
}
-e syntax OK
그냥 낄낄대며 1,000,000개의 숫자(0~999의 범위)를 포함한 파일로 시도했습니다.에 Mac Pro 、 에의에에에 에에에 에에 。는 mmap
정말 빠르겠지만 같은 시간이네요.
use 5.010;
use File::Map qw(map_file);
map_file my $map, $ARGV[0];
$sum += $1 while $map =~ m/(\d+)/g;
say $sum;
재미삼아 벤치마크를 해보겠습니다.
$ for ((i=0; i<1000000; i++)) ; do echo $RANDOM; done > random_numbers
$ time perl -nle '$sum += $_ } END { print $sum' random_numbers
16379866392
real 0m0.226s
user 0m0.219s
sys 0m0.002s
$ time awk '{ sum += $1 } END { print sum }' random_numbers
16379866392
real 0m0.311s
user 0m0.304s
sys 0m0.005s
$ time { { tr "\n" + < random_numbers ; echo 0; } | bc; }
16379866392
real 0m0.445s
user 0m0.438s
sys 0m0.024s
$ time { s=0;while read l; do s=$((s+$l));done<random_numbers;echo $s; }
16379866392
real 0m9.309s
user 0m8.404s
sys 0m0.887s
$ time { s=0;while read l; do ((s+=l));done<random_numbers;echo $s; }
16379866392
real 0m7.191s
user 0m6.402s
sys 0m0.776s
$ time { sed ':a;N;s/\n/+/;ta' random_numbers|bc; }
^C
real 4m53.413s
user 4m52.584s
sys 0m0.052s
나는 5분 후에 sed run을 중단했다.
루아로 다이빙을 해봤는데 속도가 빨라요
$ time lua -e 'sum=0; for line in io.lines() do sum=sum+line end; print(sum)' < random_numbers
16388542582.0
real 0m0.362s
user 0m0.313s
sys 0m0.063s
업데이트 하는 동안 루비:
$ time ruby -e 'sum = 0; File.foreach(ARGV.shift) {|line| sum+=line.to_i}; puts sum' random_numbers
16388542582
real 0m0.378s
user 0m0.297s
sys 0m0.078s
에 귀 기울이십시오. Morton 사용:$1
$ time awk '{ sum += $1 } END { print sum }' random_numbers
16388542582
real 0m0.421s
user 0m0.359s
sys 0m0.063s
사용 vs 용용$0
$ time awk '{ sum += $0 } END { print sum }' random_numbers
16388542582
real 0m0.302s
user 0m0.234s
sys 0m0.063s
하나의 은 ' 낫다'를 하는 것입니다.jq
:
$ seq 10|jq -s add
55
-s
)--slurp
는 입력 행을 어레이로 읽습니다.
이게 스트레이트 배쉬입니다.
sum=0
while read -r line
do
(( sum += line ))
done < file
echo $sum
이 경우 R을 사용하는 것이 좋습니다.
$ R -e 'sum(scan("filename"))'
여기 원라이너가 하나 더 있습니다.
( echo 0 ; sed 's/$/ +/' foo ; echo p ) | dc
이것은 숫자가 정수라고 가정합니다.소수점 이하가 필요한 경우
( echo 0 2k ; sed 's/$/ +/' foo ; echo p ) | dc
2를 필요한 소수점 수로 조정합니다.
Perl 6
say sum lines
~$ perl6 -e '.say for 0..1000000' > test.in
~$ perl6 -e 'say sum lines' < test.in
500000500000
이러한 태스크에는 GNU datamash를 사용하는 것이 좋습니다.이는 펄이나 awk보다 간결하고 읽기 쉽기 때문입니다.예를들면
datamash sum 1 < myfile
여기서 1은 데이터의 첫 번째 열을 나타냅니다.
$ perl -MList::Util=sum -le 'print sum <>' nums.txt
보다 간결하게:
# Ruby
ruby -e 'puts open("random_numbers").map(&:to_i).reduce(:+)'
# Python
python -c 'print(sum(int(l) for l in open("random_numbers")))'
그냥 지나칠 수가...여기 내 해스켈 원라이너야.실제로 꽤 읽을 수 있습니다.
sum <$> (read <$>) <$> lines <$> getContents
ghci -e
주요 기능인 인쇄와 컴파일이 필요합니다.
main = (sum <$> (read <$>) <$> lines <$> getContents) >>= print
.getContents
.lines
,read
와 자 sum
<$>
fmap
- 이이 IOoperator - 인 함수 합니다. read
가 fmap
이치노
$ ghc sum.hs
[1 of 1] Compiling Main ( sum.hs, sum.o )
Linking sum ...
$ ./sum
1
2
4
^D
7
다음은 플로트와 함께 작동하도록 하기 위한 이상한 업그레이드입니다.
main = ((0.0 + ) <$> sum <$> (read <$>) <$> lines <$> getContents) >>= print
$ ./sum
1.3
2.1
4.2
^D
7.6000000000000005
cat nums | perl -ne '$sum += $_ } { print $sum'
(brian d foy의 답변과 같으며 'END'는 제외)
재미삼아 Perl의 어레이 연산 엔진인 PDL을 사용해 보겠습니다.
perl -MPDL -E 'say rcols(shift)->sum' datafile
rcols
는 열을 행렬과 행렬(이 경우 1D)로.sum
행렬의 모든 요소를 합산합니다.
다음은 생성기 표현과 함께 python을 사용하는 솔루션입니다.낡은 낡은 노트북으로 백만 개의 숫자를 테스트했습니다.
time python -c "import sys; print sum((float(l) for l in sys.stdin))" < file
real 0m0.619s
user 0m0.512s
sys 0m0.028s
C++ "원라이너":
#include <iostream>
#include <iterator>
#include <numeric>
using namespace std;
int main() {
cout << accumulate(istream_iterator<int>(cin), istream_iterator<int>(), 0) << endl;
}
sed ':a;N;s/\n/+/;ta' file|bc
R 스크립트 실행
파일명의 인수를 받아 행의 합을 취하기 위한 R 스크립트를 작성했습니다.
#! /usr/local/bin/R
file=commandArgs(trailingOnly=TRUE)[1]
sum(as.numeric(readLines(file)))
이것은 다음과 같이 "data.table" 또는 "vroom" 패키지로 고속화할 수 있습니다.
#! /usr/local/bin/R
file=commandArgs(trailingOnly=TRUE)[1]
sum(data.table::fread(file))
#! /usr/local/bin/R
file=commandArgs(trailingOnly=TRUE)[1]
sum(vroom::vroom(file))
벤치마킹
@glenn jackman과 동일한 벤치마크 데이터.
for ((i=0; i<1000000; i++)) ; do echo $RANDOM; done > random_numbers
위의 R 콜과 비교하여 스크립트로서 R 3.5.0을 실행하는 것은 (같은 Linux Debian 서버상의) 다른 메서드와 동등합니다.
$ time R -e 'sum(scan("random_numbers"))'
0.37s user
0.04s system
86% cpu
0.478 total
readLines가 있는 R 스크립트
$ time Rscript sum.R random_numbers
0.53s user
0.04s system
84% cpu
0.679 total
data.table이 있는 R 스크립트
$ time Rscript sum.R random_numbers
0.30s user
0.05s system
77% cpu
0.453 total
R 스크립트(vroom 포함)
$ time Rscript sum.R random_numbers
0.54s user
0.11s system
93% cpu
0.696 total
다른 언어와의 비교
같은 하드웨어에서 권장되는 다른 방법으로 참조할 수 있습니다.
Python 2 (2.7.13)
$ time python2 -c "import sys; print sum((float(l) for l in sys.stdin))" < random_numbers
0.27s user 0.00s system 89% cpu 0.298 total
Python 3 (3.6.8)
$ time python3 -c "import sys; print(sum((float(l) for l in sys.stdin)))" < random_number
0.37s user 0.02s system 98% cpu 0.393 total
루비(2.3.3)
$ time ruby -e 'sum = 0; File.foreach(ARGV.shift) {|line| sum+=line.to_i}; puts sum' random_numbers
0.42s user
0.03s system
72% cpu
0.625 total
Perl (5.24.1)
$ time perl -nle '$sum += $_ } END { print $sum' random_numbers
0.24s user
0.01s system
99% cpu
0.249 total
Awk(4.1.4)
$ time awk '{ sum += $0 } END { print sum }' random_numbers
0.26s user
0.01s system
99% cpu
0.265 total
$ time awk '{ sum += $1 } END { print sum }' random_numbers
0.34s user
0.01s system
99% cpu
0.354 total
C(Clang 버전 3.3; gcc(Debian 6.3.0-18) 6.3.0)
$ gcc sum.c -o sum && time ./sum < random_numbers
0.10s user
0.00s system
96% cpu
0.108 total
추가 언어로 업데이트
루아(5.3.5)
$ time lua -e 'sum=0; for line in io.lines() do sum=sum+line end; print(sum)' < random_numbers
0.30s user
0.01s system
98% cpu
0.312 total
tr(8.26)은 zsh와 호환되지 않고 bash 단위로 시간 설정되어야 합니다.
$time { { tr "\n" + < random_numbers ; echo 0; } | bc; }
real 0m0.494s
user 0m0.488s
sys 0m0.044s
sed(4.4)는 zsh와 호환되지 않고 bash 단위로 시간을 설정해야 합니다.
$ time { head -n 10000 random_numbers | sed ':a;N;s/\n/+/;ta' |bc; }
real 0m0.631s
user 0m0.628s
sys 0m0.008s
$ time { head -n 100000 random_numbers | sed ':a;N;s/\n/+/;ta' |bc; }
real 1m2.593s
user 1m2.588s
sys 0m0.012s
주의: sed 콜은 사용 가능한 메모리가 많은 시스템에서 더 빠르게 동작하는 것 같습니다(벤치마킹에 사용되는 작은 데이터셋에 주의).
줄리아(0.5.0)
$ time julia -e 'print(sum(readdlm("random_numbers")))'
3.00s user
1.39s system
136% cpu
3.204 total
$ time julia -e 'print(sum(readtable("random_numbers")))'
0.63s user
0.96s system
248% cpu
0.638 total
R과 같이 파일 I/O 방식은 성능이 다릅니다.
Bash 변종
raw=$(cat file)
echo $(( ${raw//$'\n'/+} ))
$ wc -l file
10000 file
$ time ./test
323390
real 0m3,096s
user 0m3,095s
sys 0m0,000s
여기서 무슨 일이 일어나고 있는 거야?파일의 내용을 $raw var로 읽습니다.그런 다음 모든 새 줄을 '+'로 변경하여 이 변수에서 산술문을 만드십시오.
또 하나는 재미로
sum=0;for i in $(cat file);do sum=$((sum+$i));done;echo $sum
또는 다른 bash 전용
s=0;while read l; do s=$((s+$l));done<file;echo $s
그러나 가장 컴팩트한 솔루션이기 때문에 아마 awk 솔루션이 가장 좋을 것입니다.
C는 항상 속도에서 이긴다.
#include <stdio.h>
#include <stdlib.h>
int main(int argc, char **argv) {
ssize_t read;
char *line = NULL;
size_t len = 0;
double sum = 0.0;
while (read = getline(&line, &len, stdin) != -1) {
sum += atof(line);
}
printf("%f", sum);
return 0;
}
100만 번호 타이밍(내 python 답변과 동일한 기계/입력):
$ gcc sum.c -o sum && time ./sum < numbers
5003371677.000000
real 0m0.188s
user 0m0.180s
sys 0m0.000s
Ruby 포함:
ruby -e "File.read('file.txt').split.inject(0){|mem, obj| mem += obj.to_f}"
이동 중:
package main
import (
"bufio"
"fmt"
"os"
"strconv"
)
func main() {
scanner := bufio.NewScanner(os.Stdin)
sum := int64(0)
for scanner.Scan() {
v, err := strconv.ParseInt(scanner.Text(), 10, 64)
if err != nil {
fmt.Fprintf(os.Stderr, "Not an integer: '%s'\n", scanner.Text())
os.Exit(1)
}
sum += v
}
fmt.Println(sum)
}
파일 전체를 읽어봐야 하는데 이것보다 훨씬 더 나아질 수 있을지 모르겠네요.
$sum = 0;
while(<>){
$sum += $_;
}
print $sum;
테스트한 적은 없지만 동작합니다.
cat f | tr "\n" "+" | sed 's/+$/\n/' | bc
bc가 EOF 및 EOL을 처리하지 않는 경우 bc 전에 (에코를 통해 등) 문자열에 "\n"을 추가해야 할 수 있습니다.
여기 또 있습니다.
open(FIL, "a.txt");
my $sum = 0;
foreach( <FIL> ) {chomp; $sum += $_;}
close(FIL);
print "Sum = $sum\n";
Alasql 데이터베이스의 Alacon 명령줄 유틸리티를 사용하여 실행할 수 있습니다.
Node.js와 연동되므로 Node.js를 설치한 후 다음 Aarasql 패키지를 설치해야 합니다.
TXT 파일에서 합계를 계산하려면 다음 명령을 사용합니다.
> node alacon "SELECT VALUE SUM([0]) FROM TXT('mydata.txt')"
모든 신규 회선을 다음과 같이 치환하는 것은 쉽지 않습니다.+
, 를 추가합니다.0
에 송신합니다.Ruby
통역사?
(sed -e "s/$/+/" file; echo 0)|irb
없는 경우irb
에 송신할 수 있습니다.bc
단, 마지막 행을 제외한 모든 새 행을 삭제해야 합니다.echo
를 사용하는 것이 좋습니다.tr
박사학위를 가지고 있지 않다면sed
.
(sed -e "s/$/+/" file|tr -d "\n"; echo 0)|bc
awk를 사용한 셸에서는, 다음의 스크립트를 사용하고 있습니다.
#!/bin/bash
total=0;
for i in $( awk '{ print $1; }' <myfile> )
do
total=$(echo $total+$i | bc )
((count++))
done
echo "scale=2; $total " | bc
언급URL : https://stackoverflow.com/questions/2702564/how-can-i-quickly-sum-all-numbers-in-a-file
'programing' 카테고리의 다른 글
텍스트 상자 - 수평 텍스트 센터링 (0) | 2023.04.16 |
---|---|
libc++abi.dylib: NSException 유형(lldb)을 제외하고 수집되지 않은 종료 (0) | 2023.04.16 |
Python에서 Excel 파일을 열려면 어떻게 해야 하나요? (0) | 2023.04.16 |
git 저장소의 줄 수 (0) | 2023.04.16 |
String에서 곱슬곱슬한 대괄호 '{'를 이스케이프합니다.포맷 (0) | 2023.04.16 |