Kündigungswelle droht

Mitarbeiter laufen gegen Google Sturm

Teilen

Pentagon-Deal sorgt für Unmut -Petition gegen Beteiligung an "Geschäft mit dem Krieg".

Zahlreiche Mitarbeiter von  Google  haben den US-Technologiekonzern aufgerufen, sich vom "Geschäft mit dem Krieg" fernzuhalten. Google müsse klar erklären, dass weder der Internetriese noch seine Subunternehmen "jemals Kriegstechnologie herstellen", hieß es in einer Petition, die bereits über 4.000 Angestellte unterzeichneten.

Darin fordern sie Google auf, Drohnenprogramme des US-Militärs nicht mithilfe künstlicher Intelligenz zu verbessern. Dem Internetportal "Gizmodo" zufolge reichten bereits mehrere Entwickler aus ethischen Gründen ihre Kündigung ein.

>>>Nachlesen:  Google revolutioniert seine Suchfunktion

"Project Maven"

Hintergrund der Proteste ist das sogenannte "Project Maven", bei dem laut US-Medien intelligente Algorithmen bei der Erkennung und Unterscheidung von Menschen in Drohnenvideos für das Pentagon zum Einsatz kommen. "Wir fordern, dass das 'Project Maven' gestoppt wird", heißt es in der Petition, von der Kopien im Internet veröffentlicht wurden. "Wir glauben, dass Google nicht im Geschäft mit dem Krieg sein sollte."

Unterstützung für die Petition kam von der US-Bürgerrechtsorganisation Electronic Frontier Foundation (EFF) und dem International Committee for Robot Arms Control (ICRAC), das sich dafür einsetzt, die militärische Nutzung von Robotern zu begrenzen.

>>>Nachlesen:  Das ist Googles große Zukunftsvision

Eindringliche Warnung des Komitees

Auch wenn die durch künstliche Intelligenz gewonnenen Erkenntnisse noch einmal von menschlichen Analysten überprüft werden sollten, könne diese Technologie den Weg für automatisierte Zielerfassungssysteme bei Kampfdrohnen ebnen, schrieb das ICRAC in einem offenen Brief. "Wenn Befehlshaber des Militärs zu der Erkenntnis gelangen, dass die Algorithmen verlässlich sind, gibt es die Versuchung, die Überprüfung durch Menschen für diese Systeme abzuschwächen oder sogar abzuschaffen." Dann sei die Menschheit "nur einen kleinen Schritt davon entfernt, autonomen Drohnen zu erlauben, automatisiert zu töten - ohne menschliche Aufsicht oder aussagekräftige Kontrolle", warnte das Komitee.

Google habe in der Vergangenheit betont, die Arbeit des Technologiekonzerns zur Verbesserung der Fähigkeiten zur Objekterkennung diene keinen Angriffszwecken, erklärte die EFF. Nun zeige sich allerdings ein "düsteres Bild", schrieben Cindy Cohn und Peter Eckersley in einem Online-Beitrag im vergangenen Monat.

>>>Nachlesen:  Google-Assistent kann jetzt Anrufe tätigen

Es stehe enorm viel auf dem Spiel

Durch die von Google bereitgestellte Technologie könnten von Drohnen erkannte Objekte oder Menschen für eine Überprüfung durch Menschen markiert werden. Dies könne dann in einigen Fällen tatsächlich zu Luftangriffen führen, schrieben Cohn und Eckersley. Dadurch stehe aus ethischer Sicht enorm viel auf dem Spiel - "selbst wenn in dieser Tötungskette noch weiter oben Menschen sind".

Sowohl EFF als auch ICRAC riefen dazu auf, eine ernsthafte Debatte über die Notwendigkeit ethischer Rahmenbedingungen für die Nutzung künstlicher Intelligenz in der Waffentechnik zu führen. Diese Debatte sei von entscheidender Bedeutung und müsse international geführt werden, forderte die Electronic Frontier Foundation. Firmen wie Google müssten sich der Folgen ihres Handels bewusst sein und von den Militärvertretern Verhaltensstandards und Verantwortlichkeit einfordern - ebenso wie von sich selbst.

>>>Nachlesen:  Alle Neuheiten der Google I/O 2018

Fehler im Artikel gefunden? Jetzt melden.
OE24 Logo
Es gibt neue Nachrichten