Ilya Sutskever gründet Startup für die Entwicklung sicherer Superintelligenz

Kategorien:
No items found.
Freigegeben:
June 26, 2024

OpenAI-Mitbegründer Ilya Sutskever gründet neues Startup zur Entwicklung sicherer Superintelligenz

Einführung


Ilya Sutskever, ehemaliger Chef-Wissenschaftler und Mitbegründer von OpenAI, hat nach seinem Abgang im Mai sein nächstes großes Projekt enthüllt. Gemeinsam mit Daniel Levy, einem weiteren ehemaligen OpenAI-Kollegen, und Daniel Gross, dem früheren Leiter der KI-Abteilung bei Apple, hat er Safe Superintelligence Inc. (SSI) ins Leben gerufen. Das Startup konzentriert sich ausschließlich auf die Entwicklung sicherer superintelligenter Systeme.


Hintergrund und Motivation


Die Gründung von SSI folgt auf die kurzzeitige Absetzung des OpenAI-CEO Sam Altman im November 2023, bei der Sutskever eine zentrale Rolle spielte. Später äußerte er Bedauern über seine Beteiligung an dieser Entscheidung.

In einer Mitteilung auf der Website von SSI beschreiben die Gründer ihre Herangehensweise: „Wir betrachten Sicherheit und Fähigkeiten als technische Probleme, die durch revolutionäre Ingenieurkunst und wissenschaftliche Durchbrüche gelöst werden müssen. Wir planen, die Fähigkeiten so schnell wie möglich zu verbessern, dabei jedoch sicherzustellen, dass unsere Sicherheitsmaßnahmen stets voraus sind. Auf diese Weise können wir in Ruhe skalieren.“


Fokus und Zielsetzung


SSI verfolgt das Ziel der sicheren Superintelligenz mit einem klaren Fokus: „ein Ziel, ein Produkt“. Diese Konzentration unterscheidet sich von der Diversifizierung, die bei großen KI-Laboren wie OpenAI, DeepMind und Anthropic in den letzten Jahren zu beobachten war.

Das Startup plant, ein Team der besten Ingenieure und Forscher der Welt zusammenzustellen, das in Palo Alto und Tel Aviv arbeiten wird. Sutskevers Arbeit bei SSI stellt eine Fortsetzung seiner Bemühungen bei OpenAI dar, wo er Teil des Superalignment-Teams war, das Kontrollmethoden für leistungsstarke neue KI-Systeme entwickelte. Dieses Team wurde jedoch nach Sutskevers Abgang aufgelöst.


Reaktionen und Kritik


Die Gründung von SSI hat sowohl Interesse als auch Kritik hervorgerufen. Kritiker argumentieren, dass das Streben nach sicherer Superintelligenz eine philosophische Herausforderung ebenso wie eine technische darstellt. Dennoch wird der Werdegang der SSI-Gründer mit großem Interesse verfolgt, was auf ihre beeindruckenden Referenzen zurückzuführen ist.


Standorte und Geschäftsmodell


SSI hat bereits Büros in Palo Alto und Tel Aviv eingerichtet und ist aktiv auf der Suche nach technischem Talent. Im Gegensatz zu OpenAI, das ursprünglich als gemeinnützige Organisation gegründet wurde und sich später umstrukturierte, um die immense Finanzierung für seine Rechenleistung zu sichern, wird SSI von Anfang an als gewinnorientiertes Unternehmen konzipiert. Angesichts des aktuellen Interesses an KI und der beeindruckenden Referenzen des Teams könnte SSI bald beträchtliches Kapital anziehen.


Abschließende Gedanken


Nur die Zeit wird zeigen, ob Sutskevers Team substanzielle Fortschritte in Richtung ihres ehrgeizigen Ziels der sicheren superintelligenten KI machen kann. Die Gründung von SSI unterstreicht die anhaltende Debatte und Sorge innerhalb der KI-Gemeinschaft über die potenziellen Risiken, die mit superintelligenten KI-Systemen verbunden sind. Sutskevers neues Unternehmen zielt darauf ab, diese Risiken direkt anzugehen und sicherzustellen, dass die Entwicklung von KI-Technologien sowohl sicher als auch gesellschaftlich vorteilhaft ist.


Bibliographie


- https://www.theregister.com/2024/06/20/ilya_sutskever_safe_superintelligence/
- https://venturebeat.com/ai/openai-co-founder-ilya-sutskever-announces-new-startup-to-tackle-safe-superintelligence/
- https://www.axios.com/2024/06/19/ilya-sutskever-openai-co-founder-safe-superintelligence
- https://www.nytimes.com/2024/06/19/technology/ilya-sutskever-openai-safe-superintelligence.html
- https://www.firstpost.com/tech/openai-co-founder-ilya-sutskever-launches-new-firm-focused-on-developing-a-safe-super-ai-13784192.html
- https://www.cnbc.com/2024/06/19/openai-co-founder-ilya-sutskever-announces-safe-superintelligence.html
- https://www.techinasia.com/openai-cofounder-ilya-sutskever-launches-safe-ai-firm
- https://www.tomsguide.com/ai/openai-co-founder-starts-new-company-to-build-safe-superintelligence-heres-what-that-means
- https://www.israelhayom.com/2024/06/20/openai-co-founder-launches-safe-superintelligence-a-new-ai-venture-with-offices-in-tel-aviv/

Was bedeutet das?
No items found.