In der Welt der künstlichen Intelligenz (KI) hat sich NVIDIA mit der Veröffentlichung ihrer neuesten Innovation einen Namen gemacht: Chat with RTX, eine Open-Source-Demoanwendung, die es Benutzern ermöglicht, einen persönlichen KI-Chatbot auf ihrem PC zu betreiben. Diese Entwicklung markiert einen Wendepunkt in der Art und Weise, wie wir mit maschinellem Lernen und künstlicher Intelligenz interagieren, und stellt eine herausfordernde Alternative zu Diensten wie denen von OpenAI dar.
Der Chat with RTX nutzt die Fähigkeiten der RTX 30- oder 40-Serie Grafikkarten von NVIDIA, die mit mindestens 8 GB VRAM ausgestattet sein müssen, und läuft lokal auf einem Windows-PC. Dieser Ansatz bietet den Vorteil, dass keine Internetverbindung erforderlich ist, und die Verarbeitung von sensiblen Daten erfolgt direkt auf dem Gerät des Benutzers, ohne dass diese an Dritte weitergegeben werden müssen.
Die Anwendung verwendet eine Technik namens Retrieval-Augmented Generation (RAG) zusammen mit der NVIDIA TensorRT-LLM-Software und der RTX-Beschleunigung, um generative KI-Kapazitäten auf lokale, GeForce-betriebene Windows-PCs zu bringen. Benutzer können lokale Dateien auf einem PC als Datenbank an ein Open-Source Large Language Model wie Mistral oder Llama 2 anbinden, um schnell und kontextbezogene Antworten auf ihre Anfragen zu erhalten.
Ein wesentlicher Vorteil von Chat with RTX ist die Möglichkeit, YouTube-Videos und eigene Dokumente in den Chatbot einzuspeisen, um Zusammenfassungen zu erstellen und relevante Antworten basierend auf den eigenen Daten zu erhalten. Benutzer können verschiedene Dateiformate wie .txt, .pdf, .doc/.docx und .xml verwenden. Indem sie die Anwendung auf einen Ordner mit diesen Dateien hinweisen, kann das Tool sie in Sekundenschnelle in seine Bibliothek laden.
Darüber hinaus können Benutzer Informationen aus YouTube-Videos und Playlists integrieren. Durch das Hinzufügen einer Video-URL zu Chat with RTX können Benutzer dieses Wissen in ihren Chatbot für kontextbezogene Anfragen integrieren. Beispielsweise könnten sie nach Reiseempfehlungen auf Basis von Inhalten aus Lieblingsinfluencer-Videos fragen oder schnelle Tutorials und Anleitungen basierend auf Top-Bildungsressourcen erhalten.
Für Entwickler bietet NVIDIA das TensorRT-LLM RAG-Entwicklerreferenzprojekt auf GitHub an. Dies bietet eine Grundlage, auf der Entwickler eigene RAG-basierte Anwendungen für RTX entwickeln und bereitstellen können, die durch TensorRT-LLM beschleunigt werden.
Die Veröffentlichung von Chat with RTX zeigt das enorme Potential von RTX-GPUs, die Verarbeitung von Large Language Models zu beschleunigen. Es bietet eine beeindruckende Demonstration der Leistungsfähigkeit von lokalen generativen KI-Anwendungen und könnte einen bedeutenden Schritt in Richtung Dezentralisierung von KI-Anwendungen darstellen, indem es den Benutzern mehr Kontrolle über ihre eigenen Daten gibt und die Abhängigkeit von Cloud-basierten Diensten reduziert.
Die Reaktionen auf diese neue Technologie sind bisher überwiegend positiv. Experten und Enthusiasten sind gleichermaßen beeindruckt von der Geschwindigkeit und den Fähigkeiten, die NVIDIA mit Chat with RTX demonstriert hat. Es wird erwartet, dass diese technologische Innovation den Weg für eine neue Ära von KI-Anwendungen ebnet, die sowohl für den durchschnittlichen Verbraucher als auch für Unternehmen von Vorteil sein könnten.
Quellen:
- NVIDIA Blog: "Say What? Chat With RTX Brings Custom Chatbot to NVIDIA RTX AI PCs" (https://blogs.nvidia.com/blog/chat-with-rtx-available-now/)
- NVIDIA: Chat with RTX Generative AI (https://www.nvidia.com/en-us/ai-on-rtx/chat-with-rtx-generative-ai/)
- Brian Roemmele auf Twitter (https://twitter.com/BrianRoemmele/status/1757446979360370788, https://twitter.com/BrianRoemmele/status/1757457991484457220)