Eine neue Untersuchung von +972 Magazine und Local Call zeigt, dass die israelische Armee ein auf künstlicher Intelligenz basierendes Programm namens „Lavender“ entwickelt hat, das hier erstmals vorgestellt wird.
Laut sechs israelischen Geheimdienstoffizieren, die alle während des aktuellen Krieges im Gazastreifen in der Armee gedient haben und direkt mit dem Einsatz von KI zur Generierung von Attentatszielen in Berührung gekommen sind, hat Lavender eine zentrale Rolle bei der beispiellosen Bombardierung der Palästinenser gespielt, insbesondere in der Anfangsphase des Krieges. Tatsächlich war sein Einfluss auf die Operationen des Militärs laut den Quellen so groß, dass sie die Ergebnisse der KI-Maschine im Wesentlichen „als wären es menschliche Entscheidungen“ behandelten. Die Quellen sagten, dass die Genehmigung zur automatischen Übernahme der Todeslisten von Lavender, die zuvor nur als Hilfsmittel verwendet worden waren, etwa zwei Wochen nach Kriegsbeginn erteilt wurde, nachdem Geheimdienstmitarbeiter die Genauigkeit einer zufälligen Stichprobe von mehreren hundert vom KI-System ausgewählten Zielen „manuell“ überprüft hatten. Als sich herausstellte, dass Lavenders Ergebnisse bei der Identifizierung einer Person mit Hamas eine Genauigkeit von 90 Prozent erreichten, genehmigte die Armee den umfassenden Einsatz des Systems. Von diesem Moment an, so Quellen, wurde Lavender im Wesentlichen aufgefordert, dies als Befehl zu behandeln, wenn es sich bei einer Person um einen Hamas-Milizen handelte. Es bestand keine Verpflichtung, eigenständig zu prüfen, warum die Maschine diese Entscheidung traf, oder die Rohdaten des Geheimdienstes zu untersuchen, auf denen die Entscheidung beruhte. „Um 5 Uhr morgens kam [die Luftwaffe] und bombardierte alle Häuser, die wir markiert hatten“, sagte B.. „Wir haben Tausende von Menschen ausgeschaltet. Wir gingen sie nicht einzeln durch – wir gaben alles in automatisierte Systeme ein, und sobald einer [der markierten Personen] zu Hause war, wurde er sofort zum Ziel.
Wir bombardierten ihn und sein Haus.“
.Hier sind die wichtigsten politischen Nachrichten des Tages.
@VOTA2 Jahre2Y
Was halten Sie davon, dass ein System der künstlichen Intelligenz darüber entscheidet, wer bei militärischen Aktionen ins Visier genommen werden soll?
@VOTA2 Jahre2Y
Glauben Sie, dass der Rückgriff auf KI bei solch kritischen und lebensverändernden Entscheidungen den menschlichen Bedienern die moralische Verantwortung nimmt oder verringert?
@VOTA2 Jahre2Y
Sollte künstliche Intelligenz die Macht haben, in Konfliktsituationen über das Schicksal von Menschen zu entscheiden?
@VOTA2 Jahre2Y
Wenn ein KI-System wie Lavender einen Fehler macht, der zum Verlust unschuldiger Menschenleben führt, wer sollte dann zur Verantwortung gezogen werden?
Beteiligen Sie sich an weiteren beliebten Unterhaltungen.