KI-Update kompakt: Gemini 1.5, Mistral Next, Altmans Chip-Pläne, Copilot

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 8 Min.
Von
Inhaltsverzeichnis

Google DeepMind stellt mit Gemini 1.5 ein Update seiner KI-Modelle vor, das effizienter im Training und der Inferenz sein soll. Das erste veröffentlichte Modell, Gemini 1.5 Pro, nähert sich laut Google an die Leistung von Gemini 1.0 Ultra an. Ein besonderes Merkmal ist das lange Kontextfenster von bis zu 1 Million Token – in Experimenten konnte das Team das Fenster sogar auf bis zu 10 Millionen Token skalieren.

Gemini 1.5 Pro kann so große Datenmengen wie eine oder mehrere Stunden Video, 12 bis 24 Stunden Audio oder bis zu 700.000 Wörter verarbeiten. Damit übertrifft es OpenAIs GPT-4 und Claude 2.1 deutlich und könnte zahlreiche neue Anwendungen für multimodale Modelle eröffnen.

Entwickler und Unternehmenskunden können über AI Studio und Vertex AI auf eine eingeschränkte Vorschau von Gemini 1.5 Pro mit einem Token-Limit von 128.000 Token zugreifen, einige ausgewählte Tester bekommen Zugang zur Version mit einer Millionen Token.

Google plant die breite Veröffentlichung zunächst mit einer Version mit 128.000 Token. In naher Zukunft will Google Preisstufen einführen, die sich nach der Größe des Kontextfensters richten.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Das französische KI-Start-up Mistral AI bereitet sich auf die Einführung seines neuesten Sprachmodells "Mistral Next" vor. Das vorherige Modell "Medium" lag in Benchmarks auf GPT-3.5-Niveau.

"Mistral Next" ist laut dem Unternehmen ein großes Modell – könnte also das erste Modell des Unternehmens sein, dass mit GPT-4 konkurriert.

"Mistral Next" kann derzeit in der Chatbot Arena im Direct-Chat-Modus getestet werden, einer Webseite, auf der Sprachmodelle miteinander verglichen werden können. Erste Tester äußern sich positiv und sehen "Mistral Next" bei Logikaufgaben auf GPT-4-Niveau oder sogar darüber. Mistral-Entwickler kündigten auf Discord an, dass in Kürze weitere Details zu "Mistral Next" veröffentlicht werden.

OpenAI-CEO Sam Altman plant, die Halbleiterindustrie mit einem 7-Billionen-Dollar-Projekt zur Entwicklung von KI-Chips umzugestalten. Die US-Regierung zeigt sich jedoch skeptisch gegenüber Altmans Idee, da sie potenzielle Gefahren für die nationale Sicherheit und den Wettbewerb sieht. Altman versucht dennoch, die Regierung von seinem Vorhaben zu überzeugen, betont aber, ohne deren Zustimmung könne er nicht weitermachen. Branchenvertreter wie Chip-Experte Jim Keller und Nvidia-CEO Jensen Huang haben ebenfalls Zweifel an Altmans Plänen geäußert.

Ein weiterer Kritikpunkt besteht in der Zusammenarbeit von OpenAI mit G42, einem Unternehmen aus Abu Dhabi mit engen Verbindungen nach China. Die US-Regierung hat Bedenken hinsichtlich Chinas Ambitionen in der Chipfertigung und -entwicklung aufgrund der Sicherheit geäußert.

Das Start-up Groq hat eine neuartige Hardware namens Language Processing Unit (LPU) entwickelt, die KI-Sprachmodelle mit einer Geschwindigkeit von bis zu 500 Token pro Sekunde verarbeiten kann. In einer Demonstration übertraf eine LPU-Variante von Llama 2 70B mit 500 Token pro Sekunde die Geschwindigkeit gängiger Language Models wie Gemini Pro und GPT-3.5, die auf Nvidia-Hardware laufen und zwischen 30 und 50 Token pro Sekunde liegen. Der "GroqChip" setzt auf eine "Tensor-Streaming-Architektur" für hohe Leistung und Effizienz.

Die LPU ist nicht nur schneller, sondern auch energieeffizienter als herkömmliche GPUs. Sie unterstützt zudem gängige Machine-Learning-Frameworks, was die Integration in KI-Projekte erleichtert. Die von Groq entwickelten LPUs könnten die Bereitstellung von KI-Anwendungen in Echtzeit, beispielsweise in Spielen, verbessern und eine energieeffiziente Lösung für das Ausführen großer KI-Modelle bieten. Sie sind jedoch aktuell nicht für das Training geeignet.

Microsoft bietet für Office 365 eine kostenpflichtige KI-Erweiterung namens "Copilot für Office 365" an. Der Service kostet monatlich 22 Euro zusätzlich zum Office-365-Abonnement. Ein Test von c't 3003 zeigt jedoch, dass der KI-Assistent in der aktuellen Form nicht überzeugt. Während die Cloud-Versionen der Office-Programme mit Copilot funktionieren, treten bei den Standalone-Versionen auf Windows-Rechnern Lizenzprobleme auf, insbesondere wenn ein Business-Microsoft-Konto im Spiel ist.

Im Detail erweist sich der Einsatz des Copilots als fehleranfällig und inhaltlich oft nicht zielführend. Die Erstellung von Powerpoint-Präsentationen anhand von Textvorgaben funktioniert zwar technisch, die Ergebnisse sind jedoch unzuverlässig und thematisch oft verfehlt. Auch die Zusammenarbeit zwischen den verschiedenen Office-Programmen gelingt nicht nahtlos.

In Word generiert der Copilot Texte, die häufig nicht den Anweisungen entsprechen. Excel, eigentlich ein vielversprechendes Anwendungsfeld für KI-Unterstützung, zeigt sich komplett auf Englisch und reagiert oft nur mit Fehlermeldungen auf Eingaben. Outlooks Copilot-Funktion konnte im Test aufgrund eines fehlenden Buttons nicht geprüft werden.

Das Fazit unseres Testers Jan-Keno Janssen: "Copilot Pro für Office ist in der aktuellen Fassung eine Frechheit" und ist noch nicht ausgereift genug, um den Preis zu rechtfertigen. Die Idee, KI in Office zu nutzen, birgt zwar Potenzial, doch bis Microsoft ein zuverlässiges Produkt liefert, bleibt die aktuelle Version hinter den Erwartungen zurück.

Microsoft plant, neben den bereits angekündigten Investitionen in Deutschland, 1,95 Milliarden Euro in den Ausbau der KI- und Cloud-Infrastruktur in Spanien zu investieren. Dies gab der spanische Regierungschef Pedro Sánchez gemeinsam mit Microsoft-Manager Brad Smith bekannt. Die Investition soll innerhalb von zwei Jahren erfolgen und ist Teil von Microsofts globalen Bemühungen, in Künstliche Intelligenz und Cloud-Technologien zu investieren.

Erst vergangene Woche kündigte Smith Investitionen von knapp 3,3 Milliarden Euro für Deutschland an, um die Kapazitäten in Rechenzentren für KI- und Cloud-Anwendungen auszubauen. Die Investition umfasst auch ein KI-Weiterbildungsprogramm für bis zu 1,2 Millionen Menschen. Darüber hinaus plant Microsoft, bis 2026 in Großbritannien 2,9 Milliarden Euro und in Australien rund 3 Milliarden Euro in den KI-Sektor zu investieren.

Der britische KI-Chiphersteller Graphcore führt laut der Zeitung The Telegraph Gespräche mit potenziellen Investoren wie Arm, SoftBank und OpenAI. Ziel ist es, hohe Verluste auszugleichen, und auch ein Verkauf an ausländische Unternehmen wird erwogen. Investoren wie Chrysalis und Baillie Gifford haben die Bewertung ihrer Anteile an Graphcore erhöht. Ein Verkauf an ausländische Interessenten würde wahrscheinlich von den nationalen Sicherheitsbehörden geprüft, da KI-Technologie als strategisch wichtig gilt.

Graphcores Chipverkäufe könnten aus verschiedenen Gründen beeinträchtigt sein. Erstens hat sich das Unternehmen aufgrund der US-Exportbestimmungen, die Chinas Zugang zu hochwertiger Halbleitertechnologie einschränken sollen, aus China zurückgezogen. Dies hat das Geschäft in einem wichtigen Markt reduziert. Zweitens, obwohl Graphcore in Benchmarks teilweise zu Nvidia aufschließen und Teilerfolge erzielen konnte, konnte es sich nicht deutlich durchsetzen. Nvidia hat den Vorteil eines ausgereiften Software-Stacks für maschinelles Lernen und konnte sich lange in allen wichtigen KI-Benchmarks an der Spitze halten, während die Konkurrenz immer nur in einigen Bereichen Erfolge feiern konnte.

Eine der zuletzt vorgestellten Innovationen von Graphcore ist die Bow-IPU, der weltweit erste Wafer-on-Wafer-Prozessor, der auf TSMCs neue Wafer-on-Wafer 3D-Technologie setzt.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

(igr)