Als «ai-safety» getaggte Fragen

9
Ist künstliche Intelligenz anfällig für Hacking?
In dem Artikel Die Einschränkungen des Deep Learning in konträren Umgebungen wird untersucht, wie neuronale Netzwerke von einem Angreifer beschädigt werden können, der den Datensatz manipulieren kann, mit dem das neuronale Netzwerk trainiert. Die Autoren experimentieren mit einem neuronalen Netzwerk, das handgeschriebene Ziffern lesen soll, und untergraben dessen Lesefähigkeit, indem …

1
Welche Tools werden verwendet, um das Problem der gegnerischen Beispiele zu lösen?
Es ist bekannt , dass das Problem der gegnerischen Beispiele für neuronale Netze kritisch ist. Zum Beispiel kann ein Bildklassifizierer manipuliert werden, indem jedem von vielen Trainingsbeispielen, die wie Rauschen aussehen, aber bestimmte Fehlklassifizierungen erzeugen, ein Bild mit niedriger Amplitude additiv überlagert wird. Da neuronale Netze auf einige sicherheitskritische Probleme …
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.