Ich habe nur puf (Parallel URL Fetcher) gefunden, konnte aber keine URLs aus einer Datei lesen. etwas wie puf < urls.txt geht auch nicht. Das auf dem Server installierte Betriebssystem ist Ubuntu.
Ich habe eine Aufgabe, die eine Liste von Dateien auf stdin verarbeitet. Die Startzeit des Programms ist beträchtlich und die Zeit, die jede Datei benötigt, ist sehr unterschiedlich. Ich möchte eine beträchtliche Anzahl dieser Prozesse erzeugen und dann die Arbeit an diejenigen senden, die nicht beschäftigt sind. Es gibt verschiedene …
Ich habe drei Arten von Daten, die in verschiedenen Formaten vorliegen. Für jeden Datentyp gibt es ein Python-Skript, das ihn in ein einheitliches Format umwandelt. Dieses Python-Skript ist langsam und CPU-gebunden (an einen einzelnen Kern auf einem Multi-Core-Computer). Daher möchte ich drei Instanzen davon ausführen - eine für jeden Datentyp …
Ich weiß, dass ich in der Befehlszeile &einen Befehl im Hintergrund ausführen kann . Aber ich frage mich, ob ich es in einem Skript tun kann. Ich habe ein Skript wie dieses: date_stamp=$(date +"%Y-%m-%d" --date='yesterday') shopt -s extglob cd /my/working/directory/ sh ./stay/get_it_ios.sh sh ./stay/get_it_mix.sh cd stay zip ../stay_$date_stamp.zip ./*201* rm …
Ich muss Leistungstests für mein gleichzeitiges Programm ausführen und meine Anforderung ist, dass es nur auf einem CPU-Kern ausgeführt werden soll. (Ich möchte keine kooperativen Threads - ich möchte immer einen Kontextwechsel haben). Ich habe also zwei Fragen: Die beste Lösung - So signieren und reservieren Sie nur einen CPU-Kern …
Ich xargsrufe ein Python-Skript auf, um ungefähr 30 Millionen kleine Dateien zu verarbeiten. Ich hoffe, xargsden Prozess parallelisieren zu können. Der Befehl, den ich benutze, ist: find ./data -name "*.json" -print0 | xargs -0 -I{} -P 40 python Convert.py {} > log.txt Grundsätzlich Convert.pywird in einem kleinen lesen json - …
Ich habe ein Bash-Skript geschrieben, das das folgende Format hat: #!/bin/bash start=$(date +%s) inFile="input.txt" outFile="output.csv" rm -f $inFile $outFile while read line do -- Block of Commands done < "$inFile" end=$(date +%s) runtime=$((end-start)) echo "Program has finished execution in $runtime seconds." Die whileSchleife liest aus $inFile, führt einige Aktivitäten in …
Ich möchte die forSchleifen des folgenden Codes parallelisieren . Wie macht man das? #!/bin/bash N=$1 n=$2 for (( i=1; i<=$N; i++ )); do min=100000000000000 //set min to some garbage value for (( j=1; j<=$n; j++ )); do val=$(/path/to/a.out) val2=`echo $val | bc` if (( $val2 < $min )); then min=$val2; …
Ich habe derzeit Probleme beim ddAufrufen mit einer Datei mit geringer Dichte als Eingabe ( if) und einer Datei als Ausgabe ( of) mit conv=sparse. ddAnscheinend wird nur ein Kern der CPU ( Intel(R) Core(TM) i7-3632QM CPU @ 2.20GHz4 Kerne + 4 Intel Hyperthreads) verwendet (100% von 1 Kern), daher …
Ist dies der richtige Weg, um mehrere aufeinanderfolgende Verarbeitungen im Hintergrund zu starten? for i in {1..10}; do for j in {1..10}; do run_command $i $j; done & done; Alle jsollten für eine bestimmte Zeit nacheinander verarbeitet werden i, aber alle isollten gleichzeitig verarbeitet werden.
Angenommen, ich habe mehrere Bash-Skripte, die parallel ausgeführt werden, mit Code wie dem folgenden: #!/bin/bash tail -f /dev/null & echo "pid is "$! Gibt $!mir garantiert die PID der neuesten Hintergrundaufgabe in diesem Skript oder ist es die aktuellste Hintergrundaufgabe weltweit? Ich bin nur neugierig, ob das Verlassen auf diese …
Ich habe einen peinlich parallelen Prozess, der eine große Menge nahezu (aber nicht vollständig) identischer Dateien erstellt. Gibt es eine Möglichkeit, die Dateien "on the fly" zu archivieren, damit die Daten nicht mehr Speicherplatz als nötig beanspruchen? Der Prozess selbst akzeptiert Befehlszeilenparameter und druckt den Namen jeder in stdout erstellten …
Ich möchte die Funktion von GNU parallel verwenden, mit der der Befehl und die Liste, die parallel eingegeben werden, ausgeführt und nach Abschluss des Vorgangs ausgespuckt werden können. Ich möchte GNU jedoch nicht parallel auf allen unseren Servern installieren. Oder vielleicht eine parallele Version von xargs? Gibt es eine ksh-Implementierung …
Ich muss ein Verzeichnis mit einem ziemlich komplizierten Baum (viele Unterverzeichnisse usw.) per FTP hochladen. Ich kann dieses Verzeichnis nicht komprimieren, da ich außer FTP keinen Zugriff auf das Ziel habe - z. B. keinen Tar. Da dies über eine sehr lange Distanz (USA => Australien) erfolgt, ist die Latenz …
Folgendes mache ich gerade: sort -T /some_dir/ --parallel=4 -uo file_sort.csv -k 1,3 file_unsort.csv Die Datei ist 90 GB, ich habe diese Fehlermeldung erhalten sort: close failed: /some_dir/sortmdWWn4: Disk quota exceeded Bisher habe ich die Option -T nicht verwendet und anscheinend ist das tmp-Verzeichnis nicht groß genug, um dies zu handhaben. …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.