Filterung ungültiger utf8


50

Ich habe eine Textdatei mit unbekannter oder gemischter Codierung. Ich möchte die Zeilen sehen, die eine Byte-Sequenz enthalten, die nicht für UTF-8 gültig ist (indem ich die Textdatei in ein Programm weitergebe). Entsprechend möchte ich die Zeilen herausfiltern, die für UTF-8 gültig sind. Mit anderen Worten, ich suche .grep [notutf8]

Eine ideale Lösung wäre portabel, kurz und für andere Codierungen verallgemeinerbar. Wenn Sie jedoch der Meinung sind, dass die Definition von UTF-8 am besten funktioniert , fahren Sie fort.


Siehe auch keithdevens.com/weblog/archive/2004/Jun/29/UTF-8.regex für eine mögliche Regex.
Mikel

@Mikel: oder unix.stackexchange.com/questions/6460/…… Ich hatte auf etwas weniger Unbeholfenes gehofft.
Gilles 'SO - hör auf böse zu sein'

Antworten:


34

Wenn Sie verwenden möchten grep, können Sie Folgendes tun:

grep -axv '.*' file

in UTF-8-Gebietsschemas, um die Zeilen mit mindestens einer ungültigen UTF-8-Sequenz abzurufen (dies funktioniert mindestens mit GNU Grep).


Mit Ausnahme von -aist dies erforderlich, um mit POSIX zu arbeiten. GNU greperkennt jedoch zumindest die UTF-8-codierten UTF-16-Ersatzzeichen, die keine Zeichen oder Codepunkte über 0x10FFFF sind, nicht.
Stéphane Chazelas

1
@ StéphaneChazelas Umgekehrt wird das -avon GNU benötigt grep(was vermutlich nicht POSIX-konform ist). In Bezug auf dem Surrogat - Bereich und die Codepoints über 0x10FFFF, das ein Fehler dann (was erklären könnte , dass ). Zu diesem Zweck -Psollte das Hinzufügen mit GNU grep2.21 funktionieren (ist aber langsam). es ist zumindest in Debian grep / 2.20-4 fehlerhaft .
Vinc17

Leider ist das Verhalten in POSIX nicht spezifiziert, da grepes sich um ein Textdienstprogramm handelt (das nur für die Texteingabe geeignet ist). Ich nehme also an, dass das Verhalten von GNU grep so gültig ist wie jedes andere hier.
Stéphane Chazelas

@ StéphaneChazelas Ich bestätige, dass POSIX sagt: "Die Eingabedateien sollen Textdateien sein." (obwohl nicht in der Beschreibung, die ein bisschen irreführend ist). Dies bedeutet auch, dass bei ungültigen Sequenzen das Verhalten von POSIX undefiniert ist. Daher die Notwendigkeit, die Implementierung wie GNU grep(deren Absicht es ist, ungültige Sequenzen als nicht übereinstimmend zu betrachten) und mögliche Fehler zu kennen.
Vinc17

1
Ich schalte die akzeptierte Antwort auf diese um (Entschuldigung, Peter.O, weil sie einfach ist und gut für meinen primären Anwendungsfall geeignet ist. Dies ist eine heuristische Methode , um UTF-8 von anderen gängigen Codierungen (insbesondere 8-Bit-Codierungen) zu unterscheiden. Stéphane Chazelas und Peter.O geben genauere Antworten in Bezug auf die UTF-8-Konformität
Gilles 'SO - hör auf, böse zu sein'

33

Ich denke, Sie möchten wahrscheinlich iconv . Es dient zum Konvertieren zwischen Codesätzen und unterstützt eine absurde Anzahl von Formaten. Zum Entfernen von Inhalten, die in UTF-8 nicht gültig sind, können Sie beispielsweise Folgendes verwenden:

iconv -c -t UTF-8 < input.txt > output.txt

Ohne die Option -c werden Probleme bei der Konvertierung nach stderr gemeldet. In Bezug auf die Prozessrichtung können Sie eine Liste dieser Probleme speichern. Ein anderer Weg wäre, das nicht-UTF8-Zeug zu entfernen und dann

diff input.txt output.txt

Eine Liste der Stellen, an denen Änderungen vorgenommen wurden.


Ok, das ist es iconv -c -t UTF-8 <input.txt | diff input.txt - | sed -ne 's/^< //p'. Es wird nicht funktionieren wie eine Pipeline, obwohl, da Sie die Eingabe zweimal lesen müssen (nein, teegeht nicht, es könnte Block je nachdem , wie viel Pufferung iconvund difftun).
Gilles 'SO - hör auf böse zu sein'

2
Zufällige Anmerkung: Eingabe und Ausgabe sind möglicherweise nicht dieselbe Datei, oder Sie erhalten eine leere Datei
drahnr

1
Oder verwenden Sie die Prozessersetzung, wenn Ihre Shell dies unterstütztdiff <(iconv -c -t UTF-8 <input.txt) input.txt
Karl

Wie machst du das und machst die Ausgabe in die gleiche Datei wie die Eingabe. Ich habe dies gerade getan und eine leere Datei erhalten: iconv -c -t UTF-8 <input.txt> input.txt
Costas Vrahimis

1
Vielen Dank. Dies ermöglicht die Wiederherstellung eines defekten utf-8-Postgresql-Dumps, aber das Verwerfen eines gültigen utf-8
Superbiji

21

Bearbeiten: Ich habe einen Tippfehler in der Regex behoben. Es brauchte ein "\ x80" nicht \ 80 .

Der reguläre Ausdruck zum Herausfiltern ungültiger UTF-8-Formulare zur strikten Einhaltung von UTF-8 lautet wie folgt

perl -l -ne '/
 ^( ([\x00-\x7F])              # 1-byte pattern
   |([\xC2-\xDF][\x80-\xBF])   # 2-byte pattern
   |((([\xE0][\xA0-\xBF])|([\xED][\x80-\x9F])|([\xE1-\xEC\xEE-\xEF][\x80-\xBF]))([\x80-\xBF])) # 3-byte pattern
   |((([\xF0][\x90-\xBF])|([\xF1-\xF3][\x80-\xBF])|([\xF4][\x80-\x8F]))([\x80-\xBF]{2}))       # 4-byte pattern
  )*$ /x or print'

Ausgabe (von Schlüsselzeilen aus Test 1 ):

Codepoint
=========  
00001000  Test=1 mode=strict               valid,invalid,fail=(1000,0,0)          
0000E000  Test=1 mode=strict               valid,invalid,fail=(D800,800,0)          
0010FFFF  mode=strict  test-return=(0,0)   valid,invalid,fail=(10F800,800,0)          

Frage: Wie erstellt man Testdaten, um einen regulären Ausdruck zu testen, der ungültigen Unicode filtert?
A. Erstellen Sie Ihren eigenen UTF-8-Testalgorithmus und brechen Sie seine Regeln ...
Catch-22 .. Aber wie testen Sie dann Ihren Testalgorithmus?

Der oben angegebene reguläre Ausdruck wurde (unter Verwendung iconvals Referenz) für jeden ganzzahligen Wert von 0x00000bis getestet 0x10FFFF. Dieser obere Wert ist der maximale ganzzahlige Wert eines Unicode-Codepunkts

Laut dieser wikipedia UTF-8 Seite.

  • UTF-8 codiert jeden der 1.112.064 Codepunkte im Unicode-Zeichensatz mit einem bis vier 8-Bit-Bytes

Diese Zahl (1.112.064) entspricht einem Bereich 0x000000bis 0x10F7FF, der 0x0800 vor dem tatsächlichen maximalen Ganzzahlwert für den höchsten Unicode-Codepunkt liegt:0x10FFFF

Dieser Block von ganzen Zahlen aus dem Unicode - Codepunkten Spektrum fehlt, wegen der Notwendigkeit für die UTF-16 - Kodierung zu Schritt über seine ursprüngliche Konstruktionsabsicht über ein System namens Ersatzpaar . Ein 0x0800Ganzzahlblock wurde reserviert, um von UTF-16 verwendet zu werden. Dieser Block erstreckt sich über den Bereich 0x00D800bis 0x00DFFF. Keiner dieser Inteter ist ein zulässiger Unicode-Wert und daher ein ungültiger UTF-8-Wert.

In Test 1 wurde das regexgegen jede Zahl im Bereich der Unicode-Codepunkte getestet, und es stimmt genau mit den Ergebnissen von überein iconv . Gültige Werte 0x010F7FF und ungültige Werte 0x000800 .

Es stellt sich jedoch die Frage, * wie der Regex mit UTF-8-Werten außerhalb des Bereichs umgeht. oben 0x010FFFF(UTF-8 kann sich auf 6 Byte mit einem maximalen Integer-Wert von 0x7FFFFFFF erstrecken .
Um die erforderlichen * Nicht-Unicode-UTF-8-Byte-Werte zu generieren , habe ich den folgenden Befehl verwendet:

  perl -C -e 'print chr 0x'$hexUTF32BE

Um ihre Gültigkeit (in gewisser Weise) zu testen, habe ich Gilles'UTF-8-Regex verwendet ...

  perl -l -ne '/
   ^( [\000-\177]                 # 1-byte pattern
     |[\300-\337][\200-\277]      # 2-byte pattern
     |[\340-\357][\200-\277]{2}   # 3-byte pattern
     |[\360-\367][\200-\277]{3}   # 4-byte pattern
     |[\370-\373][\200-\277]{4}   # 5-byte pattern
     |[\374-\375][\200-\277]{5}   # 6-byte pattern
    )*$ /x or print'

Die Ausgabe von 'perl's print chr' entspricht der Filterung von Gilles 'regulärem Ausdruck. Einer verstärkt die Gültigkeit des anderen. Ich kann ihn nicht verwenden, iconvda er nur die gültige Unicode-Standard-Teilmenge der breiteren (ursprünglichen) UTF-8-Datei verarbeitet Standard...

Die beteiligten Nonnen sind ziemlich groß, daher habe ich das obere und untere Messfeld getestet und mehrere Scans in Schritten wie 11111, 13579, 33333, 53441 durchgeführt. Die Ergebnisse stimmen also jetzt überein Alles, was bleibt, ist das Testen der Regex anhand dieser UTF-8-Werte außerhalb des gültigen Bereichs (ungültig für Unicode und daher auch für das strikte UTF-8 selbst).


Hier sind die Testmodule:

[[ "$(locale charmap)" != "UTF-8" ]] && { echo "ERROR: locale must be UTF-8, but it is $(locale charmap)"; exit 1; }

# Testing the UTF-8 regex
#
# Tests to check that the observed byte-ranges (above) have
#  been  accurately observed and included in the test code and final regex. 
# =========================================================================
: 2 bytes; B2=0 #  run-test=1   do-not-test=0
: 3 bytes; B3=0 #  run-test=1   do-not-test=0
: 4 bytes; B4=0 #  run-test=1   do-not-test=0 

:   regex; Rx=1 #  run-test=1   do-not-test=0

           ((strict=16)); mode[$strict]=strict # iconv -f UTF-16BE  then iconv -f UTF-32BE beyond 0xFFFF)
           ((   lax=32)); mode[$lax]=lax       # iconv -f UTF-32BE  only)

          # modebits=$strict
                  # UTF-8, in relation to UTF-16 has invalid values
                  # modebits=$strict automatically shifts to modebits=$lax
                  # when the tested integer exceeds 0xFFFF
          # modebits=$lax 
                  # UTF-8, in relation to UTF-32, has no restrictione


           # Test 1 Sequentially tests a range of Big-Endian integers
           #      * Unicode Codepoints are a subset ofBig-Endian integers            
           #        ( based on 'iconv' -f UTF-32BE -f UTF-8 )    
           # Note: strict UTF-8 has a few quirks because of UTF-16
                    #    Set modebits=16 to "strictly" test the low range

             Test=1; modebits=$strict
           # Test=2; modebits=$lax
           # Test=3
              mode3wlo=$(( 1*4)) # minimum chars * 4 ( '4' is for UTF-32BE )
              mode3whi=$((10*4)) # minimum chars * 4 ( '4' is for UTF-32BE )


#########################################################################  

# 1 byte  UTF-8 values: Nothing to do; no complexities.

#########################################################################

#  2 Byte  UTF-8 values:  Verifying that I've got the right range values.
if ((B2==1)) ; then  
  echo "# Test 2 bytes for Valid UTF-8 values: ie. values which are in range"
  # =========================================================================
  time \
  for d1 in {194..223} ;do
      #     bin       oct  hex  dec
      # lo  11000010  302   C2  194
      # hi  11011111  337   DF  223
      B2b1=$(printf "%0.2X" $d1)
      #
      for d2 in {128..191} ;do
          #     bin       oct  hex  dec
          # lo  10000000  200   80  128
          # hi  10111111  277   BF  191
          B2b2=$(printf "%0.2X" $d2)
          #
          echo -n "${B2b1}${B2b2}" |
            xxd -p -u -r  |
              iconv -f UTF-8 >/dev/null || { 
                echo "ERROR: Invalid UTF-8 found: ${B2b1}${B2b2}"; exit 20; }
          #
      done
  done
  echo

  # Now do a negated test.. This takes longer, because there are more values.
  echo "# Test 2 bytes for Invalid values: ie. values which are out of range"
  # =========================================================================
  # Note: 'iconv' will treat a leading  \x00-\x7F as a valid leading single,
  #   so this negated test primes the first UTF-8 byte with values starting at \x80
  time \
  for d1 in {128..193} {224..255} ;do 
 #for d1 in {128..194} {224..255} ;do # force a valid UTF-8 (needs $B2b2) 
      B2b1=$(printf "%0.2X" $d1)
      #
      for d2 in {0..127} {192..255} ;do
     #for d2 in {0..128} {192..255} ;do # force a valid UTF-8 (needs $B2b1)
          B2b2=$(printf "%0.2X" $d2)
          #
          echo -n "${B2b1}${B2b2}" |
            xxd -p -u -r |
              iconv -f UTF-8 2>/dev/null && { 
                echo "ERROR: VALID UTF-8 found: ${B2b1}${B2b2}"; exit 21; }
          #
      done
  done
  echo
fi

#########################################################################

#  3 Byte  UTF-8 values:  Verifying that I've got the right range values.
if ((B3==1)) ; then  
  echo "# Test 3 bytes for Valid UTF-8 values: ie. values which are in range"
  # ========================================================================
  time \
  for d1 in {224..239} ;do
      #     bin       oct  hex  dec
      # lo  11100000  340   E0  224
      # hi  11101111  357   EF  239
      B3b1=$(printf "%0.2X" $d1)
      #
      if   [[ $B3b1 == "E0" ]] ; then
          B3b2range="$(echo {160..191})"
          #     bin       oct  hex  dec  
          # lo  10100000  240   A0  160  
          # hi  10111111  277   BF  191
      elif [[ $B3b1 == "ED" ]] ; then
          B3b2range="$(echo {128..159})"
          #     bin       oct  hex  dec  
          # lo  10000000  200   80  128  
          # hi  10011111  237   9F  159
      else
          B3b2range="$(echo {128..191})"
          #     bin       oct  hex  dec
          # lo  10000000  200   80  128
          # hi  10111111  277   BF  191
      fi
      # 
      for d2 in $B3b2range ;do
          B3b2=$(printf "%0.2X" $d2)
          echo "${B3b1} ${B3b2} xx"
          #
          for d3 in {128..191} ;do
              #     bin       oct  hex  dec
              # lo  10000000  200   80  128
              # hi  10111111  277   BF  191
              B3b3=$(printf "%0.2X" $d3)
              #
              echo -n "${B3b1}${B3b2}${B3b3}" |
                xxd -p -u -r  |
                  iconv -f UTF-8 >/dev/null || { 
                    echo "ERROR: Invalid UTF-8 found: ${B3b1}${B3b2}${B3b3}"; exit 30; }
              #
          done
      done
  done
  echo

  # Now do a negated test.. This takes longer, because there are more values.
  echo "# Test 3 bytes for Invalid values: ie. values which are out of range"
  # =========================================================================
  # Note: 'iconv' will treat a leading  \x00-\x7F as a valid leading single,
  #   so this negated test primes the first UTF-8 byte with values starting at \x80
  #
  # real     26m28.462s \ 
  # user     27m12.526s  | stepping by 2
  # sys      13m11.193s /
  #
  # real    239m00.836s \
  # user    225m11.108s  | stepping by 1
  # sys     120m00.538s /
  #
  time \
  for d1 in {128..223..1} {240..255..1} ;do 
 #for d1 in {128..224..1} {239..255..1} ;do # force a valid UTF-8 (needs $B2b2,$B3b3) 
      B3b1=$(printf "%0.2X" $d1)
      #
      if   [[ $B3b1 == "E0" ]] ; then
          B3b2range="$(echo {0..159..1} {192..255..1})"
         #B3b2range="$(> {192..255..1})" # force a valid UTF-8 (needs $B3b1,$B3b3)
      elif [[ $B3b1 == "ED" ]] ; then
          B3b2range="$(echo {0..127..1} {160..255..1})"
         #B3b2range="$(echo {0..128..1} {160..255..1})" # force a valid UTF-8 (needs $B3b1,$B3b3)
      else
          B3b2range="$(echo {0..127..1} {192..255..1})"
         #B3b2range="$(echo {0..128..1} {192..255..1})" # force a valid UTF-8 (needs $B3b1,$B3b3)
      fi
      for d2 in $B3b2range ;do
          B3b2=$(printf "%0.2X" $d2)
          echo "${B3b1} ${B3b2} xx"
          #
          for d3 in {0..127..1} {192..255..1} ;do
         #for d3 in {0..128..1} {192..255..1} ;do # force a valid UTF-8 (needs $B2b1)
              B3b3=$(printf "%0.2X" $d3)
              #
              echo -n "${B3b1}${B3b2}${B3b3}" |
                xxd -p -u -r |
                  iconv -f UTF-8 2>/dev/null && { 
                    echo "ERROR: VALID UTF-8 found: ${B3b1}${B3b2}${B3b3}"; exit 31; }
              #
          done
      done
  done
  echo

fi

#########################################################################

#  Brute force testing in the Astral Plane will take a VERY LONG time..
#  Perhaps selective testing is more appropriate, now that the previous tests 
#     have panned out okay... 
#  
#  4 Byte  UTF-8 values:
if ((B4==1)) ; then  
  echo "# Test 4 bytes for Valid UTF-8 values: ie. values which are in range"
  # ==================================================================
  # real    58m18.531s \
  # user    56m44.317s  | 
  # sys     27m29.867s /
  time \
  for d1 in {240..244} ;do
      #     bin       oct  hex  dec
      # lo  11110000  360   F0  240
      # hi  11110100  364   F4  244  -- F4 encodes some values greater than 0x10FFFF;
      #                                    such a sequence is invalid.
      B4b1=$(printf "%0.2X" $d1)
      #
      if   [[ $B4b1 == "F0" ]] ; then
        B4b2range="$(echo {144..191})" ## f0 90 80 80  to  f0 bf bf bf
        #     bin       oct  hex  dec          010000  --  03FFFF 
        # lo  10010000  220   90  144  
        # hi  10111111  277   BF  191
        #                            
      elif [[ $B4b1 == "F4" ]] ; then
        B4b2range="$(echo {128..143})" ## f4 80 80 80  to  f4 8f bf bf
        #     bin       oct  hex  dec          100000  --  10FFFF 
        # lo  10000000  200   80  128  
        # hi  10001111  217   8F  143  -- F4 encodes some values greater than 0x10FFFF;
        #                                    such a sequence is invalid.
      else
        B4b2range="$(echo {128..191})" ## fx 80 80 80  to  f3 bf bf bf
        #     bin       oct  hex  dec          0C0000  --  0FFFFF
        # lo  10000000  200   80  128          0A0000
        # hi  10111111  277   BF  191
      fi
      #
      for d2 in $B4b2range ;do
          B4b2=$(printf "%0.2X" $d2)
          #
          for d3 in {128..191} ;do
              #     bin       oct  hex  dec
              # lo  10000000  200   80  128
              # hi  10111111  277   BF  191
              B4b3=$(printf "%0.2X" $d3)
              echo "${B4b1} ${B4b2} ${B4b3} xx"
              #
              for d4 in {128..191} ;do
                  #     bin       oct  hex  dec
                  # lo  10000000  200   80  128
                  # hi  10111111  277   BF  191
                  B4b4=$(printf "%0.2X" $d4)
                  #
                  echo -n "${B4b1}${B4b2}${B4b3}${B4b4}" |
                    xxd -p -u -r  |
                      iconv -f UTF-8 >/dev/null || { 
                        echo "ERROR: Invalid UTF-8 found: ${B4b1}${B4b2}${B4b3}${B4b4}"; exit 40; }
                  #
              done
          done
      done
  done
  echo "# Test 4 bytes for Valid UTF-8 values: END"
  echo
fi

########################################################################
# There is no test (yet) for negated range values in the astral plane. #  
#                           (all negated range values must be invalid) #
#  I won't bother; This was mainly for me to ge the general feel of    #     
#   the tests, and the final test below should flush anything out..    #
# Traversing the intire UTF-8 range takes quite a while...             #
#   so no need to do it twice (albeit in a slightly different manner)  #
########################################################################

################################
### The construction of:    ####
###  The Regular Expression ####
###      (de-construction?) ####
################################

#     BYTE 1                BYTE 2       BYTE 3      BYTE 4 
# 1: [\x00-\x7F]
#    ===========
#    ([\x00-\x7F])
#
# 2: [\xC2-\xDF]           [\x80-\xBF]
#    =================================
#    ([\xC2-\xDF][\x80-\xBF])
# 
# 3: [\xE0]                [\xA0-\xBF]  [\x80-\xBF]   
#    [\xED]                [\x80-\x9F]  [\x80-\xBF]
#    [\xE1-\xEC\xEE-\xEF]  [\x80-\xBF]  [\x80-\xBF]
#    ==============================================
#    ((([\xE0][\xA0-\xBF])|([\xED][\x80-\x9F])|([\xE1-\xEC\xEE-\xEF][\x80-\xBF]))([\x80-\xBF]))
#
# 4  [\xF0]                [\x90-\xBF]  [\x80-\xBF]  [\x80-\xBF]    
#    [\xF1-\xF3]           [\x80-\xBF]  [\x80-\xBF]  [\x80-\xBF]
#    [\xF4]                [\x80-\x8F]  [\x80-\xBF]  [\x80-\xBF]
#    ===========================================================
#    ((([\xF0][\x90-\xBF])|([\xF1-\xF3][\x80-\xBF])|([\xF4][\x80-\x8F]))([\x80-\xBF]{2}))
#
# The final regex
# ===============
# 1-4:  (([\x00-\x7F])|([\xC2-\xDF][\x80-\xBF])|((([\xE0][\xA0-\xBF])|([\xED][\x80-\x9F])|([\xE1-\xEC\xEE-\xEF][\x80-\xBF]))([\x80-\xBF]))|((([\xF0][\x90-\xBF])|([\xF1-\xF3][\x80-\xBF])|([\xF4][\x80-\x8F]))([\x80-\xBF]{2})))
# 4-1:  (((([\xF0][\x90-\xBF])|([\xF1-\xF3][\x80-\xBF])|([\xF4][\x80-\x8F]))([\x80-\xBF]{2}))|((([\xE0][\xA0-\xBF])|([\xED][\x80-\x9F])|([\xE1-\xEC\xEE-\xEF][\x80-\xBF]))([\x80-\xBF]))|([\xC2-\xDF][\x80-\xBF])|([\x00-\x7F]))


#######################################################################
#  The final Test; for a single character (multi chars to follow)     #  
#   Compare the return code of 'iconv' against the 'regex'            #
#   for the full range of 0x000000 to 0x10FFFF                        #
#                                                                     #     
#  Note; this script has 3 modes:                                     #
#        Run this test TWICE, set each mode Manually!                 #     
#                                                                     #     
#     1. Sequentially test every value from 0x000000 to 0x10FFFF      #     
#     2. Throw a spanner into the works! Force random byte patterns   #     
#     2. Throw a spanner into the works! Force random longer strings  #     
#        ==============================                               #     
#                                                                     #     
#  Note: The purpose of this routine is to determine if there is any  #
#        difference how 'iconv' and 'regex' handle the same data      #  
#                                                                     #     
#######################################################################
if ((Rx==1)) ; then
  # real    191m34.826s
  # user    158m24.114s
  # sys      83m10.676s
  time { 
  invalCt=0
  validCt=0
   failCt=0
  decBeg=$((0x00110000)) # incement by decimal integer
  decMax=$((0x7FFFFFFF)) # incement by decimal integer
  # 
  for ((CPDec=decBeg;CPDec<=decMax;CPDec+=13247)) ;do
      ((D==1)) && echo "=========================================================="
      #
      # Convert decimal integer '$CPDec' to Hex-digits; 6-long  (dec2hex)
      hexUTF32BE=$(printf '%0.8X\n' $CPDec)  # hexUTF32BE

      # progress count  
      if (((CPDec%$((0x1000)))==0)) ;then
          ((Test>2)) && echo
          echo "$hexUTF32BE  Test=$Test mode=${mode[$modebits]}            "
      fi
      if   ((Test==1 || Test==2 ))
      then # Test 1. Sequentially test every value from 0x000000 to 0x10FFFF
          #
          if   ((Test==2)) ; then
              bits=32
              UTF8="$( perl -C -e 'print chr 0x'$hexUTF32BE |
                perl -l -ne '/^(  [\000-\177]
                                | [\300-\337][\200-\277]
                                | [\340-\357][\200-\277]{2}
                                | [\360-\367][\200-\277]{3}
                                | [\370-\373][\200-\277]{4}
                                | [\374-\375][\200-\277]{5}
                               )*$/x and print' |xxd -p )"
              UTF8="${UTF8%0a}"
              [[ -n "$UTF8" ]] \
                    && rcIco32=0 || rcIco32=1
                       rcIco16=

          elif ((modebits==strict && CPDec<=$((0xFFFF)))) ;then
              bits=16
              UTF8="$( echo -n "${hexUTF32BE:4}" |
                xxd -p -u -r |
                  iconv -f UTF-16BE -t UTF-8 2>/dev/null)" \
                    && rcIco16=0 || rcIco16=1  
                       rcIco32=
          else
              bits=32
              UTF8="$( echo -n "$hexUTF32BE" |
                xxd -p -u -r |
                  iconv -f UTF-32BE -t UTF-8 2>/dev/null)" \
                    && rcIco32=0 || rcIco32=1
                       rcIco16=
          fi
          # echo "1 mode=${mode[$modebits]}-$bits  rcIconv: (${rcIco16},${rcIco32})  $hexUTF32BE "
          #
          #
          #
          if ((${rcIco16}${rcIco32}!=0)) ;then
              # 'iconv -f UTF-16BE' failed produce a reliable UTF-8
              if ((bits==16)) ;then
                  ((D==1)) &&           echo "bits-$bits rcIconv: error    $hexUTF32BE .. 'strict' failed, now trying 'lax'"
                  #  iconv failed to create a  'srict' UTF-8 so   
                  #      try UTF-32BE to get a   'lax' UTF-8 pattern    
                  UTF8="$( echo -n "$hexUTF32BE" |
                    xxd -p -u -r |
                      iconv -f UTF-32BE -t UTF-8 2>/dev/null)" \
                        && rcIco32=0 || rcIco32=1
                  #echo "2 mode=${mode[$modebits]}-$bits  rcIconv: (${rcIco16},${rcIco32})  $hexUTF32BE "
                  if ((rcIco32!=0)) ;then
                      ((D==1)) &&               echo -n "bits-$bits rcIconv: Cannot gen UTF-8 for: $hexUTF32BE"
                      rcIco32=1
                  fi
              fi
          fi
          # echo "3 mode=${mode[$modebits]}-$bits  rcIconv: (${rcIco16},${rcIco32})  $hexUTF32BE "
          #
          #
          #
          if ((rcIco16==0 || rcIco32==0)) ;then
              # 'strict(16)' OR 'lax(32)'... 'iconv' managed to generate a UTF-8 pattern  
                  ((D==1)) &&       echo -n "bits-$bits rcIconv: pattern* $hexUTF32BE"
                  ((D==1)) &&       if [[ $bits == "16" && $rcIco32 == "0" ]] ;then 
                  echo " .. 'lax' UTF-8 produced a pattern"
              else
                  echo
              fi
               # regex test
              if ((modebits==strict)) ;then
                 #rxOut="$(echo -n "$UTF8" |perl -l -ne '/^(([\x00-\x7F])|([\xC2-\xDF][\x80-\xBF])|((([\xE0][\xA0-\xBF])|([\xED][\x80-\x9F])|([\xE1-\xEC\xEE-\xEF][\x80-\xBF]))([\x80-\xBF]))|((([\xF0][\x90-\xBF])|([\xF1-\xF3][\x80-\xBF])|([\xF4][\x80-\x8F]))([\x80-\xBF]{2})))*$/ or print' )"
                                     rxOut="$(echo -n "$UTF8" |
                  perl -l -ne '/^( ([\x00-\x7F])             # 1-byte pattern
                                  |([\xC2-\xDF][\x80-\xBF])  # 2-byte pattern
                                  |((([\xE0][\xA0-\xBF])|([\xED][\x80-\x9F])|([\xE1-\xEC\xEE-\xEF][\x80-\xBF]))([\x80-\xBF]))  # 3-byte pattern
                                  |((([\xF0][\x90-\xBF])|([\xF1-\xF3][\x80-\xBF])|([\xF4][\x80-\x8F]))([\x80-\xBF]{2}))        # 4-byte pattern
                                 )*$ /x or print' )"
               else
                  if ((Test==2)) ;then
                      rx="$(echo -n "$UTF8" |perl -l -ne '/^([\000-\177]|[\300-\337][\200-\277]|[\340-\357][\200-\277]{2}|[\360-\367][\200-\277]{3}|[\370-\373][\200-\277]{4}|[\374-\375][\200-\277]{5})*$/ and print')"
                      [[ "$UTF8" != "$rx" ]] && rxOut="$UTF8" || rxOut=
                      rx="$(echo -n "$rx" |sed -e "s/\(..\)/\1 /g")"  
                  else 
                      rxOut="$(echo -n "$UTF8" |perl -l -ne '/^([\000-\177]|[\300-\337][\200-\277]|[\340-\357][\200-\277]{2}|[\360-\367][\200-\277]{3}|[\370-\373][\200-\277]{4}|[\374-\375][\200-\277]{5})*$/ or print' )"
                  fi
              fi
              if [[ "$rxOut" == "" ]] ;then
                ((D==1)) &&           echo "        rcRegex: ok"
                  rcRegex=0
              else
                  ((D==1)) &&           echo -n "bits-$bits rcRegex: error    $hexUTF32BE .. 'strict' failed,"
                  ((D==1)) &&           if [[  "12" == *$Test* ]] ;then 
                                            echo # "  (codepoint) Test $Test" 
                                        else
                                            echo
                                        fi
                  rcRegex=1
              fi
          fi
          #
      elif [[ $Test == 2 ]]
      then # Test 2. Throw a randomizing spanner into the works! 
          #          Then test the  arbitary bytes ASIS
          #
          hexLineRand="$(echo -n "$hexUTF32BE" |
            sed -re "s/(.)(.)(.)(.)(.)(.)(.)(.)/\1\n\2\n\3\n\4\n\5\n\6\n\7\n\8/" |
              sort -R |
                tr -d '\n')"
          # 
      elif [[ $Test == 3 ]]
      then # Test 3. Test single UTF-16BE bytes in the range 0x00000000 to 0x7FFFFFFF
          #
          echo "Test 3 is not properly implemented yet.. Exiting"
          exit 99 
      else
          echo "ERROR: Invalid mode"
          exit
      fi
      #
      #
      if ((Test==1 || Test=2)) ;then
          if ((modebits==strict && CPDec<=$((0xFFFF)))) ;then
              ((rcIconv=rcIco16))
          else
              ((rcIconv=rcIco32))
          fi
          if ((rcRegex!=rcIconv)) ;then
              [[ $Test != 1 ]] && echo
              if ((rcRegex==1)) ;then
                  echo "ERROR: 'regex' ok, but NOT 'iconv': ${hexUTF32BE} "
              else
                  echo "ERROR: 'iconv' ok, but NOT 'regex': ${hexUTF32BE} "
              fi
              ((failCt++));
          elif ((rcRegex!=0)) ;then
            # ((invalCt++)); echo -ne "$hexUTF32BE  exit-codes $${rcIco16}${rcIco32}=,$rcRegex\t: $(printf "%0.8X\n" $invalCt)\t$hexLine$(printf "%$(((mode3whi*2)-${#hexLine}))s")\r"
              ((invalCt++)) 
          else
              ((validCt++)) 
          fi
          if   ((Test==1)) ;then
              echo -ne "$hexUTF32BE "    "mode=${mode[$modebits]}  test-return=($rcIconv,$rcRegex)   valid,invalid,fail=($(printf "%X" $validCt),$(printf "%X" $invalCt),$(printf "%X" $failCt))          \r"
          else 
              echo -ne "$hexUTF32BE $rx mode=${mode[$modebits]} test-return=($rcIconv,$rcRegex)  val,inval,fail=($(printf "%X" $validCt),$(printf "%X" $invalCt),$(printf "%X" $failCt))\r"
          fi
      fi
  done
  } # End time
fi
exit

Das Hauptproblem bei meinem regulären Ausdruck ist, dass er einige verbotene Sequenzen zulässt, wie z \300\200. Ich denke, dass Ihr regulärer Ausdruck sie richtig ablehnt.
Gilles 'SO- hör auf böse zu sein'

7

Ich finde uconv(im icu-devtoolsPaket in Debian) nützlich, um UTF-8-Daten zu überprüfen:

$ print '\\xE9 \xe9 \u20ac \ud800\udc00 \U110000' |
    uconv --callback escape-c -t us
\xE9 \xE9 \u20ac \xED\xA0\x80\xED\xB0\x80 \xF4\x90\x80\x80

(Die \xs helfen beim Erkennen der ungültigen Zeichen (mit Ausnahme des freiwillig mit einem \xE9obigen Literal eingeführten Falschpositivs ).

(viele andere nette Verwendungen).


Ich denke, recodekann ähnlich verwendet werden - außer dass ich denke, es sollte fehlschlagen, wenn eine ungültige Multibyte-Sequenz übersetzt werden soll. Ich bin mir aber nicht sicher; es wird nicht für nicht print...|recode u8..u8/x4zum Beispiel (die nur eine hexdump tut , wie Sie oben tun) , weil es nichts tut , aber iconv data data, aber es ist nicht wie , recode u8..u2..u8/x4weil es dann druckt übersetzt. Aber ich weiß nicht genug darüber - und es gibt viele Möglichkeiten.
mikeserv

Wenn ich eine Datei habe, sagen wir test.txt. Wie soll ich annehmen, um das ungültige Zeichen unter Verwendung Ihrer Lösung zu finden? Was bedeutet usin Ihrem Code?
JDHAO

@Hao usbedeutet USA, das ist die Abkürzung für ASCII. Es konvertiert die Eingabe in eine ASCII-Eingabe, bei der die Nicht-ASCII-Zeichen in die \uXXXXNotation und die Nicht-Zeichen in die Notation konvertiert werden \xXX.
Stéphane Chazelas

Wo soll ich meine Datei ablegen, um Ihr Skript zu verwenden? Ist die letzte Zeile im Codeblock die Ausgabe Ihres Codes? Es ist ein bisschen verwirrend für mich.
JDHAO

4

Python verfügt seit Version 2.0 über eine integrierte unicodeFunktion .

#!/usr/bin/env python2
import sys
for line in sys.stdin:
    try:
        unicode(line, 'utf-8')
    except UnicodeDecodeError:
        sys.stdout.write(line)

In Python 3 unicodewurde in gefaltet str. Es muss ein byteartiges Objekt übergeben werden , hier die zugrunde liegenden bufferObjekte für die Standarddeskriptoren .

#!/usr/bin/env python3
import sys
for line in sys.stdin.buffer:
    try:
        str(line, 'utf-8')
    except UnicodeDecodeError:
        sys.stdout.buffer.write(line)

Der python 2eine kann UTF-8-codierte UTF-16-Ersatzzeichen nicht kennzeichnen (mindestens 2.7.6).
Stéphane Chazelas

@ StéphaneChazelas Dammit. Vielen Dank. Bisher habe ich nur Nenntests durchgeführt, später werde ich Peters Testbatterie testen.
Gilles 'SO- hör auf böse zu sein'

1

Ich bin auf ein ähnliches Problem gestoßen (Details im Abschnitt "Kontext") und bin mit der folgenden ftfy_line_by_line.py- Lösung angekommen :

#!/usr/bin/env python3
import ftfy, sys
with open(sys.argv[1], mode='rt', encoding='utf8', errors='replace') as f:
  for line in f:
    sys.stdout.buffer.write(ftfy.fix_text(line).encode('utf8', 'replace'))
    #print(ftfy.fix_text(line).rstrip().decode(encoding="utf-8", errors="replace"))

Verwenden Sie encode + replace + ftfy , um Mojibake und andere Korrekturen automatisch zu korrigieren.

Kontext

Ich habe mit dem folgenden Skript gen_basic_files_metadata.csv.sh > 10 GB CSV von grundlegenden Metadaten des Dateisystems gesammelt und im Wesentlichen ausgeführt:

find "${path}" -type f -exec stat --format="%i,%Y,%s,${hostname},%m,%n" "{}" \;

Das Problem, das ich hatte, war die inkonsistente Codierung von Dateinamen in verschiedenen Dateisystemen, was dazu führte, dass die UnicodeDecodeErrorVerarbeitung mit Python-Anwendungen ( genauer gesagt mit csvsql ) fortgesetzt wurde .

Deshalb habe ich über ftfy Skript angewendet, und es hat gedauert

Bitte beachten Sie, dass ftfy ziemlich langsam ist und die Verarbeitung von> 10 GB dauerte:

real    147m35.182s
user    146m14.329s
sys     2m8.713s

während sha256sum zum Vergleich:

real    6m28.897s
user    1m9.273s
sys     0m6.210s

auf Intel (R) Core (TM) i7-3520M-CPU bei 2,90 GHz + 16 Gb RAM (und Daten auf externem Laufwerk)


Und ja, ich weiß, dass dieser Befehl find Dateinamen, die Anführungszeichen gemäß CSV-Standard enthalten, nicht richtig codiert
Grzegorz Wierzowiecki
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.