KI-Revolution in der Kunst: Alibabas EMO erweckt Mona Lisa zum Leben

Kategorien:
No items found.
Freigegeben:
June 26, 2024

In einer Welt, in der die Grenzen zwischen Realität und digitaler Illusion immer mehr verschwimmen, hat die Alibaba Group mit ihrer neuesten Entwicklung, einer KI-gesteuerten Software namens EMO, für Aufsehen gesorgt. Die Software ist in der Lage, aus einem einzigen Bild lebensechte Animationen zu erstellen, und hat bereits mit einer beeindruckend realistischen Animation der Mona Lisa für Staunen gesorgt.

Die Mona Lisa, das weltberühmte Meisterwerk von Leonardo da Vinci, ist seit Jahrhunderten Gegenstand von Faszination und Bewunderung. Ihr mysteriöses Lächeln hat unzählige Diskussionen und Theorien hervorgerufen. Doch nun hat die Technologie einen Punkt erreicht, an dem sie dieses enigmatische Kunstwerk in Bewegung setzen kann, was die Frage aufwirft, wie weit die künstliche Intelligenz die Kunst und ihre Wahrnehmung verändern könnte.

EMO, das Akronym für "Emote Portrait Alive", nutzt ein Audio2Video-Diffusionsmodell, um unter schwachen Bedingungen expressive Porträtvideos zu generieren. Dies stellt einen bedeutenden Fortschritt in der Erzeugung von sogenannten Talking-Head-Videos dar, die die Realität und Ausdrucksstärke von animierten Gesichtern verbessern, indem sie sich auf dynamische und nuancierte Gesichtsbewegungen konzentrieren.

Die Forschung hinter EMO basiert auf der Arbeit eines Teams von Ingenieuren und Wissenschaftlern, die trainierte Algorithmen verwenden, um die allgemeinen Formen von Gesichtszügen zu verstehen und wie sie sich zueinander verhalten. Diese Informationen werden dann auf Standbilder angewendet, um eine realistische Videosequenz von neuen Gesichtsausdrücken zu erstellen, die nur auf einem einzigen Rahmen basieren.

In der Vergangenheit hat KI bereits gezeigt, dass die Erstellung überzeugender Deepfakes möglich ist, allerdings erforderte dies mehrere Ansichten des gewünschten Subjekts. Bei EMO hingegen wurde die KI mit einem umfangreichen Datensatz von Referenzvideos konfrontiert, in denen menschliche Gesichter in Aktion gezeigt werden. Die Wissenschaftler legten Gesichtslandmarken fest, die auf jedes Gesicht anwendbar sein sollten, um dem neuronalen Netzwerk beizubringen, wie Gesichter sich im Allgemeinen verhalten.

Die Technologie wurde auch dazu verwendet, Animationen von Fotos berühmter Persönlichkeiten wie Albert Einstein, Marilyn Monroe und Salvador Dalí zu generieren. Die Forschungsergebnisse, die nicht von Fachkollegen begutachtet wurden, wurden in einer Studie veröffentlicht, die online am 20. Mai auf dem Preprint-Journal arXiv erschien.

Die Fähigkeit, realistische Animationen aus einem einzigen Bild zu erstellen, hat sowohl aufregende als auch beunruhigende Implikationen. Einerseits bietet sie neue kreative Möglichkeiten für Künstler, Filmemacher und die Unterhaltungsindustrie. Andererseits könnten solche Deepfakes auch für Desinformation und Manipulation verwendet werden, was die Notwendigkeit einer sorgfältigen Kontrolle und ethischer Überlegungen im Umgang mit dieser Technologie unterstreicht.

Es ist bemerkenswert, dass die KI der Alibaba Group, die für die Animation der Mona Lisa verwendet wurde, nicht nur das Gesicht, sondern auch die damit verbundenen Emotionen und Bewegungen mit einer beeindruckenden Genauigkeit nachahmen kann. Dies könnte weitreichende Auswirkungen auf die Art und Weise haben, wie wir historische Figuren und Kunstwerke erleben und mit ihnen interagieren.

Mit Blick auf die Zukunft ist es wahrscheinlich, dass wir ähnliche Technologien sehen werden, die nicht nur in der Kunst, sondern auch in anderen Bereichen wie der Bildung, der virtuellen Realität und sogar der persönlichen Kommunikation Anwendung finden. Die Möglichkeiten sind nahezu grenzenlos, und das Feld der KI-Entwicklung bleibt eines der aufregendsten und dynamischsten Forschungsbereiche unserer Zeit.

Quellen (Bibliographie):
- Humanaigc.github.io/emote-portrait-alive/
- LiveScience.com (Mindy Weisberger, Veröffentlicht am 27. Mai 2019)
- SmithsonianMag.com ("'Mona Lisa' Comes to Life in Computer-Generated 'Living Portrait'", Jason Daley, Veröffentlicht am 28. Mai 2019)
- ArXiv.org (Studie veröffentlicht am 20. Mai, E. Zakharov et al.)
- YouTube-Kanäle: The Telegraph, Denis Shiryaev, Mystery Scoop, TODAY, Royalty Now Studios, Bloomberg Originals, PhotoshopSurgeon, Ads of Brands, Robb Report, Art Deco, Vat19, The Museum of Modern Art, The Museum Ambience, gogoART, Flowers Artwork, Two Minute Papers

Bitte beachten Sie, dass diese Liste nicht erschöpfend ist und weitere Quellen bei der Erstellung dieses Artikels verwendet worden sein könnten.

Was bedeutet das?
No items found.