Würden Sie 2010 URLs mit UTF-8-Zeichen in einem großen Webportal bereitstellen?
Unicode-Zeichen sind gemäß RFC für URLs verboten (siehe hier ). Sie müssten prozentual codiert sein, um standardkonform zu sein.
Mein Hauptpunkt ist jedoch, die nicht codierten Zeichen nur für gut aussehende URLs bereitzustellen, sodass die prozentuale Codierung nicht funktioniert.
Alle gängigen Browser scheinen diese URLs zu analysieren, egal was der RFC sagt. Mein allgemeiner Eindruck ist jedoch, dass es beim Verlassen der Domäne von Webbrowsern sehr wackelig wird:
- URLs werden kopiert und in Textdateien, E-Mails und sogar Websites mit einer anderen Codierung eingefügt
- HTTP-Client-Bibliotheken
- Exotische Browser, RSS-Reader
Ist mein Eindruck richtig, dass hier Probleme zu erwarten sind, und daher ist es (noch) keine praktische Lösung, wenn Sie ein nicht technisches Publikum bedienen und es wichtig ist, dass alle Ihre Links ordnungsgemäß funktionieren, auch wenn sie zitiert und weitergegeben werden?
Gibt es eine magische Möglichkeit, gut aussehende URLs in HTML bereitzustellen?
http://www.example.com/düsseldorf?neighbourhood=Lörick
das kann mit intakten Sonderzeichen kopiert + eingefügt werden, funktioniert aber korrekt, wenn es in älteren Clients wiederverwendet wird?