Künstliche Intelligenz: Maschinen sollen lernen, wie Menschen wahrzunehmen

Geoffrey Hinton arbeitet seit Jahrzehnten daran, KI zu verbessern. Jetzt hat er eine radikale Idee: Maschinen lernen, die menschliche Wahrnehmung zu kopieren.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen

Der Informatiker Geoffrey Hinton ist einer der Pioniere des Deep Learning. Jetzt hat er eine neue Theorie, mit der er KI-Systeme noch besser machen will.

(Bild: Google/AP Photo)

Stand:
Lesezeit: 14 Min.
Von
  • Siobhan Roberts
Inhaltsverzeichnis

Seit einem guten halben Jahrhundert denkt Geoffrey Hinton darüber nach, wie das Gehirn funktioniert und wie man seine Schaltkreise in einem Computer nachbilden kann. Bisher war er damit ziemlich erfolgreich: 1986 war er maßgeblich für die Verbreitung der Idee der „Backpropagation“ verantwortlich – ein Verfahren, mit dem künstliche neuronale Netze effizient trainiert werden können. Und 2012 konnte Hinton gemeinsam mit Kollegen erstmals zeigen, dass ein tiefes neuronales Netz Bilder besser erkennen kann als ein Mensch – die Arbeit löste eine rasante Entwicklung beim Deep Learning aus.

Im November vergangenen Jahres hatte er, mittlerweile 75 Jahre alt, eine neue Idee. „Es ist meine derzeit beste Wette darauf, wie die Dinge zusammenpassen“, sagt Hinton, der sich in seinem Büro in Toronto von der Pandemie abgeschottet hat. Wenn diese Wette aufgeht, könnte sie die nächste Generation künstlicher neuronaler Netze hervorbringen. Seine „ehrliche Motivation“, wie er es nennt, ist Neugierde. Aber die praktische Motivation – und im Idealfall die Folge – wäre eine zuverlässigere und vertrauenswürdigere KI, die um einiges leistungsfähiger wäre, als die besten Systeme, die es heute gibt.

Denn trotz der rasanten Fortschritte auf diesem Gebiet gibt es noch große Herausforderungen. Setzt man ein neuronales Netz einem ungewohnten Datensatz oder einer fremden Umgebung aus, erweist es sich als spröde und unflexibel. Selbstfahrende Autos und Sprachgeneratoren, die Aufsätze schreiben, beeindrucken, aber Vieles geht auch schief. Visuelle KI-Systeme können leicht verwirrt werden: Eine Kaffeetasse, die von der Seite erkannt wird, ist von oben gesehen für das System ein unbekanntes Objekt, wenn es nicht auf diese Ansicht trainiert worden ist; und mit der Manipulation von ein paar Pixeln kann man eine KI dazu bringen, einen Panda mit einem Strauß oder sogar einem Schulbus zu verwechseln.

Das war die Leseprobe unseres heise-Plus-Artikels "Künstliche Intelligenz: Maschinen sollen lernen, wie Menschen wahrzunehmen". Mit einem heise-Plus-Abo können sie den ganzen Artikel lesen und anhören.