Aug 19, 2023
Biden
Technologie Für die Biden-Administration schwebt eine Frage über der größten technischen Entwicklung seit Jahren: Wie groß ist die Sicherheitsbedrohung? Während der Kongress darum kämpft, festzulegen, welche neuen Gesetze zur KI verabschiedet werden sollen,
Technologie
Für die Biden-Regierung schwebt eine Frage über der größten technischen Entwicklung seit Jahren: Wie groß ist die Sicherheitsbedrohung?
Während der Kongress darum kämpft, festzulegen, welche neuen Gesetze zur KI verabschiedet werden sollen, und Bundesbehörden ihre bestehenden Befugnisse gegenüber einer neuen Technologie ausdehnen, hat sich das Weiße Haus unter Biden als aktivster Akteur in der KI-Politik herausgestellt. | Olivier Douliery/AFP/Getty Images
Von Mohar Chatterjee
10.08.2023 16:45 Uhr EDT
Aktualisiert: 11.08.2023, 08:24 Uhr EDT
Link kopiert
Am Freitag werden in Hotels in ganz Las Vegas einige der leistungsstärksten künstlichen Intelligenzsysteme der Welt gleichzeitig von einer kleinen Armee von Hackern angegriffen, die versuchen, ihre verborgenen Schwachstellen zu finden.
Das Weiße Haus ist sich des öffentlichen Angriffs nicht nur bewusst, es unterstützt ihn auch.
Im Mai unterstützte die Biden-Regierung einen absichtlichen, koordinierten Testangriff auf KI-Systeme, genannt Red-Teaming, der an diesem Wochenende über drei Tage auf einer jährlichen Hacker-Konferenz stattfinden sollte. Mehrere führende KI-Unternehmen, darunter OpenAI, Google und Meta, stimmten zu, einige ihrer neuesten und leistungsstärksten KI-Systeme für die Übung angreifen zu lassen.
Der Hackerangriff verdeutlicht, was zu einer der Hauptsorgen des Weißen Hauses in Bezug auf die leistungsstarken, schnell wachsenden neuen KI-Modelle geworden ist: Wie sicher sie wirklich sind und ob sie eine Bedrohung für amerikanische Bürger oder die nationale Sicherheit auf der ganzen Welt darstellen könnten Bühne.
„Unsere Formulierung – und das kommt vom Präsidenten – ist, dass wir, um die Chancen der KI zu nutzen, zunächst auch die Risiken bewältigen müssen“, sagte Alan Mislove, ein hochrangiger Beamter im Büro für Wissenschafts- und Technologiepolitik des Weißen Hauses half den Organisatoren der Hacking-Challenge bei der Entwicklung der Red-Teaming-Übungen für dieses Wochenende. „Bei Dingen wie großen Sprachmodellen sind diese Risiken recht umfassend, können in vielen Fällen weniger klar sein als bei anderen Systemen“ und „decken unsere Gesellschaft, unsere Wirtschaft und die nationale Sicherheit ab“, sagte er.
Während der Kongress darum kämpft, festzulegen, welche neuen Gesetze zur KI verabschiedet werden sollen, und Bundesbehörden ihre bestehenden Befugnisse gegenüber einer neuen Technologie ausdehnen, hat sich das Weiße Haus unter Biden als aktivster Akteur in der KI-Politik herausgestellt. Es hat einen Rahmen für die KI-Bill of Rights entworfen, Technologie-CEOs einberufen und eine Reihe von Pressekonferenzen über die vielfältigen Bedrohungen und Chancen abgehalten, die die Technologie mit sich bringt.
Obwohl diese Bedrohungen quer durch die Gesellschaft reichen und vom Verlust von Arbeitsplätzen über Diskriminierung bis hin zu Fehlinformationen reichen, konzentrierten sich viele der konkretesten Schritte des Weißen Hauses auf das Sicherheitsproblem. Sein neuer Sonderberater für KI, Ben Buchanan, hat eher einen nationalen Sicherheits- als einen technischen Hintergrund. Als das Weiße Haus letzten Monat KI-Führungskräfte zusammenrief, um eine Reihe freiwilliger Verpflichtungen bekannt zu geben, stand „Sicherheit“ ganz oben auf der Liste, und Sicherheit spielte in dem Dokument eine Schlüsselrolle.
Die hohe Priorität der Sicherheit spiegelt die Befürchtungen von Experten, Regulierungsbehörden und der Branche selbst wider, dass die komplexen neuen KI-Systeme eine Reihe neuer, noch nicht vollständig verstandener Probleme mit sich bringen, angefangen von der Möglichkeit, von einem Gegner gehackt und fehlgeleitet zu werden, bis hin zu der Vorstellung, dass dies der Fall ist Sie könnten Benutzerdaten für dunklere Zwecke wie den Bau von Biowaffen preisgeben.
„Es ist möglich, diese Modelle dazu zu bringen, Dinge zu tun, mit denen ihre Designer und Anbieter nicht rechnen oder die sie nicht tun wollen. Also ja, ich denke, es gibt echte Sicherheitsüberlegungen“, sagte Arati Prabhakar, Direktor des Office of Science of Technology Policy des Weißen Hauses.
KI kann auch ein Werkzeug zur Verbesserung der Sicherheit sein: Diese Woche kündigte das Pentagon eine zweijährige Herausforderung für Entwickler an, KI zur Verbesserung der kritischen amerikanischen Cybersicherheit einzusetzen.
Für die Red-Teaming-Challenge dieses Wochenendes hat sich das Weiße Haus mit dem AI Village auf der DEF CON zusammengetan, einem jährlichen Kongress, bei dem Organisatoren Hacking-Wargames veranstalten und Cybersicherheitsexperten die neuesten Lücken in allgegenwärtigen Technologien aufdecken. Regierungsbehörden wie das Pentagon haben sich schon früher an die Hacker-Community gewandt, um Schwachstellen in der Cybersicherheit zu finden: Bei einem DEF CON-Hacking-Wettbewerb im vergangenen Jahr fand ein Teilnehmer einen lähmenden Fehler im elektrischen Mikronetz der Armee, nachdem er ihm falsche Wetterdaten übermittelt hatte.
Doch die diesjährige Version ist sowohl hinsichtlich des Ausmaßes der staatlichen Unterstützung als auch der Beteiligung der Industrie ungewöhnlich. Traditionell scheuen Unternehmen der Technologiebranche davor zurück, proprietäre Software zum Testen der Öffentlichkeit zugänglich zu machen. Aber in diesem Jahr haben die Technologieunternehmen OpenAI, Anthropic, Google, Hugging Face, NVIDIA, Meta, Cohere und Stability auf Drängen des Weißen Hauses ihre großen Sprachmodelle zur Prüfung angeboten.
Sie werden abgeschirmte Versionen ihrer Modelle für Angriffe durch eine Reihe von Hackern bereitstellen – von den üblichen erfahrenen Teilnehmern der Konferenz bis hin zu eigens für die Herausforderung eingeflogenen Community-College-Studenten.
Die Idee für die Beteiligung des Weißen Hauses an der DEF CON-Übung sei auf einer früheren Technologiekonferenz geboren: South by Southwest (SXSW) in Austin, Texas, sagte Prabhakar von OSTP. Nach einem ersten Treffen bei SXSW trafen sich die AI Village-Organisatoren mit Beamten des Weißen Hauses, um die Möglichkeit einer Ausweitung ihrer Red-Teaming-Übung auf der DEF CON zu besprechen, um die beliebtesten großen Sprachmodelle auf dem Markt vorzustellen. „Wir hielten es für eine großartige Idee, eine großartige Möglichkeit, etwas wirklich Bedeutendes zu schaffen“, sagte Prabhakar.
Die Firmen stimmten zu, allerdings mit einem Vorbehalt: Die Ergebnisse der Red-Teaming-Übung der DEF CON werden erst im Februar veröffentlicht, sodass sie Sicherheitslücken oder Probleme beheben können, bevor sie ausgenutzt werden. Mit KI ist der Prozess kompliziert. „Es ist nicht so einfach, wie einen Softwarefehler einfach zu patchen“, sagte Meta-Sicherheitsforscher Chris Rohlf.
Für die Industrie geht es darum, das Vertrauen der Öffentlichkeit für eine aufstrebende Technologie zu gewinnen, die sowohl weit verbreitete Besorgnis als auch Aufregung ausgelöst hat. „Der Nachweis, dass diese Modelle getestet wurden“, sagte Rohlf von Meta, „wird langfristig Vertrauen in der Community aufbauen.“ Michael Sellitto, Leiter Geopolitik und Sicherheitspolitik bei Anthropic, hofft unterdessen, dass die Übung einen Sicherheitswettbewerb in der Technologiebranche selbst auslösen wird. „Eines der Dinge, die wir wirklich sehen wollen, ist ein Sicherheitsrennen an die Spitze“, sagte er.
Trotz des ganzen Trubels wird die Übung selbst wahrscheinlich nicht alle Arten von Fehlverhalten von KI-Systemen offenbaren, insbesondere da jeder Teilnehmer nur sehr begrenzte Zeit hat, sich in ein großes Sprachmodell zu hacken (in der Größenordnung von 50 Minuten pro Versuch) und begrenzt ist an der technischen Ausrüstung, die bei der Veranstaltung zur Verfügung stand, sagte Sellitto von Anthropic.
Mislove – der hochrangige Beamte des Weißen Hauses, der am Red Teaming-Planungsprozess beteiligt ist – sagte, die Biden-Regierung betrachte diese DEF CON-Übung als Modell für die Zukunft. Teilweise geht es darum, den besten Weg zu finden, mehr groß angelegte Red-Teaming-Übungen auf KI durchzuführen. Das Ziel des Weißen Hauses mit DEF CON besteht darin, einen Präzedenzfall zu schaffen: „Wir wollen eine Zukunft erreichen, in der Red-Teaming von vielen Parteien weitgehend praktiziert wird“, sagte Prabhakar.
KORREKTUR: Aufgrund eines Quellenfehlers wurde in dieser Geschichte ursprünglich die Zeit falsch angegeben, die den Teilnehmern bleibt, um zu versuchen, sich in ein großes Sprachmodell zu hacken. Sie erhalten 50 Minuten pro Versuch.
Link kopiert