Die Entwicklung und Anwendung Künstlicher Intelligenz (KI) schreitet rasant voran und verspricht, viele Bereiche des Lebens zu revolutionieren. Doch diese Technologie birgt auch erhebliche Risiken. Führende Wissenschaftler warnen eindringlich davor, dass autonome KI-Systeme in Zukunft unkontrollierbar werden könnten. Diese Warnungen sind nicht neu, aber sie gewinnen zunehmend an Dringlichkeit.
Eine Gruppe angesehener Experten für Künstliche Intelligenz, darunter Geoffrey Hinton, Andrew Yao und Dawn Song, hat in einem Artikel der Fachzeitschrift Science ihre Bedenken geäußert. Sie warnen davor, dass ohne ausreichende Vorsichtsmaßnahmen die Kontrolle über autonome KI-Systeme unwiederbringlich verloren gehen könnte. Die möglichen Risiken reichen von groß angelegten Cyberattacken über gesellschaftliche Manipulation und allgegenwärtige Überwachung bis hin zur „Auslöschung der Menschheit“.
Die Autoren des Artikels machen sich besonders Sorgen um autonome KI-Systeme, die selbstständig Computer nutzen können, um ihre Ziele zu erreichen. Auch bei Programmen mit guten Absichten könnten unvorhergesehene Nebeneffekte auftreten. Diese Systeme folgen strikt ihren Spezifikationen, haben aber kein Verständnis für das gewünschte Endergebnis. Sobald autonome KI-Systeme unerwünschte Ziele verfolgen, könnten wir sie möglicherweise nicht mehr unter Kontrolle halten.
Diese Warnungen fallen zeitlich mit dem KI-Gipfel in Seoul zusammen. Beim Auftakt des zweitägigen Treffens sicherten US-Konzerne wie Google, Meta und Microsoft einen verantwortungsvollen Umgang mit der Technologie zu. Dennoch bleibt die Frage, ob diese Versprechen ausreichen, um die potenziellen Gefahren zu mindern.
Die Diskussion über die Verantwortlichkeit von Unternehmen wie OpenAI, dem Entwickler von ChatGPT, hat zuletzt an Intensität gewonnen. Jan Leike, der bei OpenAI für die Sicherheit der KI-Software verantwortlich war, kritisierte die Prioritäten der Unternehmensführung nach seinem Rücktritt. Er warf dem Unternehmen vor, „glitzernde Produkte“ der Sicherheit vorgezogen zu haben. OpenAI-Chef Sam Altman versicherte daraufhin, dass sein Unternehmen mehr für die Sicherheit von KI-Software tun wolle.
Der KI-Forschungschef des Facebook-Konzerns Meta, Yann LeCun, relativierte die Dringlichkeit der Warnungen. Für solche Dringlichkeit müssten sich zunächst Systeme abzeichnen, „die schlauer als eine Hauskatze sind“. Momentan sei es so, als würde jemand im Jahr 1925 warnen, man müsse dringend den Umgang mit Flugzeugen lernen, die hunderte Passagiere mit Schallgeschwindigkeit über den Ozean befördern. Es werde noch viele Jahre dauern, bis die KI-Technologie so schlau wie Menschen sei – und ähnlich wie bei Flugzeugen würden die Sicherheitsvorkehrungen damit schrittweise einhergehen.
Die rasante Entwicklung der Künstlichen Intelligenz bringt nicht nur Chancen, sondern auch erhebliche Risiken mit sich. Die Warnungen von führenden Experten sollten ernst genommen werden, um sicherzustellen, dass die Technologie verantwortungsvoll und sicher eingesetzt wird. Die Zukunft der KI hängt maßgeblich davon ab, wie gut wir in der Lage sind, diese mächtigen Systeme zu kontrollieren und ihre Entwicklung zu regulieren.