Verantwortungsvoller Einsatz von KI: Google schränkt Wahlantworten seines Chatbots Gemini ein

Kategorien:
No items found.
Freigegeben:
June 26, 2024

In der Welt der künstlichen Intelligenz nimmt die Verantwortung für die Verbreitung von Informationen eine zunehmend zentrale Rolle ein. Angesichts der bevorstehenden Wahlen in verschiedenen Ländern, darunter Indien, die USA, das Vereinigte Königreich und Südafrika, hat Google kürzlich eine bedeutende Änderung in der Funktionsweise seines KI-Chatbots Gemini bekannt gegeben. Wie aus einem Blogbeitrag des Unternehmens hervorgeht, wird der Chatbot nun Einschränkungen bei der Beantwortung wahlbezogener Fragen erfahren.

Diese Maßnahme ist Teil der Bemühungen Googles, die Verbreitung von Fehlinformationen durch KI-Technologie zu verhindern und weitere Kontroversen zu vermeiden. Gemini, Googles Antwort auf den viralen Chatbot ChatGPT, kann nicht nur Textantworten generieren, sondern auch Bilder erstellen. Allerdings antwortete der Chatbot auf Fragen zu den bevorstehenden Wahlen in den genannten Ländern mit der Nachricht: „Ich lerne noch, wie ich auf diese Frage antworten kann. Versuchen Sie in der Zwischenzeit die Google-Suche.“ Bei Fragen zur indischen Politik lieferte Gemini jedoch detailliertere Antworten über die großen Parteien des Landes.

Die Entwicklung generativer KI-Technologien hat weltweit Bedenken hinsichtlich der Verbreitung von Desinformation geweckt und Regierungen dazu veranlasst, eine Regulierung dieser Technologien in Betracht zu ziehen. In Indien beispielsweise müssen Technologieunternehmen nun eine Genehmigung einholen, bevor sie KI-Tools veröffentlichen, die als "unzuverlässig" oder in der Testphase befindlich gelten.

In der jüngsten Vergangenheit hat Google sich für die Erzeugung eines Bildes der Gründerväter der USA entschuldigt, das fälschlicherweise einen schwarzen Mann einschloss. Ebenso generierte Gemini Bilder deutscher Soldaten aus dem Zweiten Weltkrieg, die irrtümlich einen schwarzen Mann und eine asiatische Frau zeigten. Daraufhin wurde das Tool "pausiert" und Google gab an, dass es das Ziel verfehlt habe.

Der Umgang mit KI und insbesondere mit generativen KI-Modellen ist ein Thema von großer Bedeutung, da es nicht nur um die technische Genauigkeit, sondern auch um ethische und soziale Implikationen geht. Googles Entscheidung, die Fähigkeiten von Gemini einzuschränken, wirft Fragen nach der Zuverlässigkeit und der langfristigen Rolle der KI in der Informationsvermittlung auf. So kommentierte Daniel Susser, Associate Professor für Informationswissenschaft an der Cornell University, dass wenn Googles generative KI-Tools für Informationen über demokratische Wahlen zu unzuverlässig seien, warum man ihnen dann in anderen Kontexten wie Gesundheits- oder Finanzinformationen vertrauen sollte.

Die Entscheidung, welche Fragen von KI-Chatbots beantwortet werden dürfen und welche nicht, ist heikel und steht im Mittelpunkt öffentlicher Debatten und politischer Auseinandersetzungen. Es zeigt sich, dass große KI-Unternehmen wie OpenAI und Google dazu neigen, ihre Chatbots von sensiblen Fragen fernzuhalten, die zu öffentlichen Kontroversen führen könnten. Dies verdeutlicht die zunehmende Rolle, die KI in unserer Informationsgesellschaft spielt, und die Notwendigkeit, sorgfältige Überlegungen in Bezug auf die Verantwortung und Regulierung von KI-basierten Systemen anzustellen.

Quellen:
- BBC News: "Gemini: Google AI chatbot starts to restrict election answers" von Peter Hoskins, https://www.bbc.com/news/business-68551206
- Yahoo News: "Gemini: Google AI chatbot starts to restrict election answers" von Peter Hoskins, https://news.yahoo.com/gemini-google-ai-chatbot-starts-040100783.html
- The Guardian: "Google restricts AI chatbot Gemini from answering questions on 2024 elections" von Nick Robins-Early, https://www.theguardian.com/us-news/2024/mar/12/google-ai-gemini-2024-election
- TechCrunch: "Google Gemini election-related queries" von TechCrunch-Redaktion, https://techcrunch.com/2024/03/12/google-gemini-election-related-queries/

Was bedeutet das?
No items found.