KI: Was kann Künstliche Intelligenz heute?

Künstliche Intelligenz hat offenkundig eine neue Stufe erreicht. Diese trägt das Kürzel GPT-3 und ist ein sogenanntes Sprachproduktionssystem. Entwickler aus aller Welt befassen sich seit dem Frühsommer 2020 damit. Es gilt derzeit als mächtigstes KI-Werkzeug, das beeindruckende Ergebnisse liefert.

GPT-3 in der Demo-Version


Die Entwickler haben ihre KI-Software vorläufig als Demo in einen kleinen Roboter mit freundlichen, rechteckigen Blinkeaugen verpackt, der ein wenig an einen sehr kleinen Dysonstaubsauger erinnert. Wahrscheinlich für neugierige Reporter, jedenfalls nicht für echte Fachleute beherrscht er ausreichend viel Populärwissen, um auf Nachfrage den Namen der Schauspielerin zu nennen, deren Figur in der Scream-Eingangsszene getötet wird (Drew Barrymore) und auch die korrekte Definition für den Begriff des Existenzialismus zu liefern: Die Philosophie betone die Freiheit aller Individuen, so der kleine Kobold. Die Probleme dieser Denkschule kennt er auch: Sie ist nach vorherrschender Philosophenmeinung zu subjektiv. Diesen Roboter konstruierte der Entwickler Jon Barber. Ihm stand dafür die bislang aufwendigste Autocompletefunktion zur Verfügung, die es je gab. Es ist GPT-3. Das System basiert auf einem wahrhaft gigantischen neuronalen Netz. Konzipiert und schließlich aufgebaut hat es die US-Firma OpenAI. Die Anwendung ergibt sich schon aus der korrekten Bezeichnung als sprachliches Autocompletesytem: GPT-3 braucht nur minimale Vorgaben, um Texte zu ergänzen oder auch eigenständig zu verfassen. Die Software kann übrigens nicht nur Fragen wie die zitierten beantworten, es geht ruhig auch ein bisschen komplexer. Sogar neue Software kann sie schreiben. Die derzeit mit dem System befassten Entwickler haben noch ganz andere, teilweise sehr erstaunliche Demonstrationen geschaffen.Woher stammt das Wissen von GPT-3?

GPT-3 ist extrem leistungsfähig wegen seiner Größe: Das neuronale System enthält 175 Milliarden Parameter, die vergleichbar mit den Synapsen unseres Gehirns sind. Eine einzige Synapse verbindet je zwei Nervenzellen. Je mehr es davon gibt, desto mehr Verschaltungsmöglichkeiten ergeben sich. Nun hört sich 175 Milliarden nach gewaltig viel an und ist es auch, jedoch hat das durchschnittliche menschliche Gehirn rund 100 Billionen Synapsen. Da eine Billion tausend Milliarden sind, ist GPT-3 mithin noch längst nicht so leistungsfähig wie ein menschliches Gehirn. Dennoch ist die Leistung des Netzes ein Ausweis für das exponentielle Wachstum der digitalen Verschaltungsmöglichkeiten, denn dieses Projekt gibt es schon etwas länger. Der inzwischen in die Jahre gekommene Vorgänger GPT-2 wusste bei seiner Inbetriebnahme ebenfalls die staunende Presse zu beeindrucken, doch er hatte nur etwa 1,8 Milliarden Parameter. Das Wissen des Netzwerks stammt bequemerweise aus dem Internet, denn hier gibt es schließlich ausreichend viel Text. Unter anderem speiste man die mehr als sechs Millionen Einträge der englischsprachigen Wikipedia ein, die aber nur 0,6 % der Gesamtmenge alles implementierten Wissens darstellen. Irgendwo gibt es sicherlich ein Verzeichnis zum gesamten Input, doch dieses interessiert vielleicht nicht so sehr im Detail. Auf jeden Fall ist Fachwissen ebenso wie Populärkultur enthalten (siehe oben). Das neuronale Netz soll schließlich ein menschliches Gehirn spiegeln, und wie wir alle wissen, gibt es unter uns nur sehr wenige wirkliche Fachidioten. Die meisten Menschen beschäftigen sich mit nützlichem Wissen ebenso wie mit Trash.

Welchen entscheidenden Unterschied zum menschlichen Denken (und Fühlen) gibt es?

Die Maschine fühlt nichts. Sie denkt eigentlich auch nicht. Sie kennt zwar riesige Mengen von Fakten, aber sie versteht im menschlichen Sinne rein gar nichts. Sie manipuliert nur pure Information. Diese, das ist wissenschaftlich definiert, darf nicht mit einem Sinn oder einer Bedeutung verwechselt werden. Sie ist lediglich ein Maß und die Datenbasis für statistische Prognosen. Das bedeutet im Klartext: Ein Mensch könnte sagen: Ich finde es Klasse, dass du die Rolle von Drew Barrymore kennst, aber es interessiert mich einfach nicht. Auch der Existentialismus ist mir schnuppe. Dass es solche Aussagen alle Tage gibt, wissen wir. Für einen Menschen ist dieses, für den anderen jenes wichtig. Dabei haben wir noch gar nicht darüber gesprochen, wie erfreut oder verärgert wir ein und dieselbe Information aufnehmen: Wenn nämlich der FC Bayern gegen Borussia Dortmund gewinnt, ist das für einen Teil der Zuschauer ein sehr erfreuliches Ereignis, für einen anderen Teil höchst betrüblich. Solche Gefühlsduseleien sind aber dem Netzwerk GPT-3 vollkommen fremd.

Aber wie funktioniert diese KI?

GPT-3 errät aus der Textbasis, wie der Text sich fortsetzen und welche Antwort auf eine Frage korrekt sein müsste. Dafür ermittelt das Programm aus der gigantischen Menge an extrahierten statistischen Textabhängigkeiten die Logik der Sprache und auch die richtigen Antworten. Das ist mal mehr und mal weniger schwer. Die Antworten auf die eingangs zitierten Fragen stehen wahrscheinlich so in der englischen Wikipedia, wobei man über die Bewertung des Existentialismus (zu subjektiv) schon wieder streiten kann. Wenn wir aber Wikipedia als akzeptierte Wahrheit hinnehmen (was umstritten ist), muss die Antwort als richtig gelten. Einen Satz vervollständigen kann GPT-3 auch, hierfür kommen schon Wahrscheinlichkeitsrechnungen zum Einsatz. Es gibt eine Wahrscheinlichkeit, wie ein Satz sich logisch fortsetzen könnte. Die echte Bedeutung aber kann das Programm nicht verstehen. Das behaupten jedenfalls nüchterne Wissenschaftler, die an ihm beteiligt sind. Doch es gibt auch Sprachwissenschaftler wie Gwern Branwen, der selbst ein Literat ist und Essays schreibt, die echte Fans von GPT-3s Sprachkünsten sind. Branwen hält die Sprache der neuronalen Software für kreativ, tiefsinnig, geistreich, metaphorisch und oft auch schön. Immerhin kann das System auch Wortspiele schreiben, selbst eigene Detektivgeschichten gelingen ihm. Es kann CNN-Interviews simulieren oder Prominente fiktive Streitgespräche führen lassen (wobei die wahrscheinlichen Argumente der Prominenten genannt werden). Über Elon Musk hat GPT-3 ein Spottgedicht verfasst, was ungerecht ist: Der Tesla- und SpaceX-Gründer war einer der Finanziers des Programms.

Mehr als Text

Dass GPT-3 auch eigene Software schreiben kann, haben wir schon erwähnt. Eigentlich ist das logisch, denn auch Software basiert auf Text, nämlich dem einer Programmiersprache. Folglich beherrscht das neuronale Netz noch weitere Texte, unter anderem die für das Erstellen einer Gitarrentabulatur. Web- und App-Design gehören ebenfalls zu seinem Repertoire. Jedenfalls hat diese Maschine ihre eigenen Entwickler immer wieder in Erstaunen versetzt und schier begeistert. Sie wussten daher nicht an sich zu halten und twitterten fortlaufend über die Künste von GPT-3, bis es ihrem Chef Sam Altman zu viel wurde. Er twitterte selbst gegen den Hype an und bremste seine Kollegen. Inzwischen erkannte er nämlich auch bestimmte Probleme, die sich durch das Konzept selbst ergaben: GPT-3 ist nicht nur vollkommen unemotional, sondern auch unmoralisch und asozial. Das neuronale Netz verwurstet einfach alles, was man ihm gibt. Wenn man ihm das Internet als Futter gibt, spuckt es im Gegenzug auch sexistische oder rassistische Textschnipsel aus, denn diese sind schließlich im Intenet zuhauf zu finden.

Ethische Diskussion um GPT-3

An dieser Stelle entbrannte eine ethische Diskussion um GPT-3, bei der interessanterweise der KI-Chef von Facebook Jerome Pesenti als Kontrahent auftrat. Er kritisierte die Unmoral von GPT-3 und die Verantwortungslosigkeit seiner Entwickler, während man doch bei Facebook solche KI-Ausrutscher strikt vermeiden wolle. Das ist etwas heuchlerisch, denn gerade Facebook ist schließlich berüchtigt dafür, gerade nicht die starken Algorithmen einzusetzen, die Hassreden zuverlässig ausfiltern würden. Doch die Diskussion an sich ist nützlich. Es ist ein grundlegendes Problem der KI, dass sie über keine moralischen Standards verfügt. Diese ihr beizubringen wäre wohl unendlich viel schwieriger als das pure Füttern mit Text. Unsere Moral ist nämlich sehr fein verästelt und höchst komplex. Ein erster Schritt ist der Einbau von Toxicity Filtern in GPT-3 durch seine Entwicklerfirma OpenAI. Diese Filter sollen schlimmste Auswüchse verhindern.

error: Alert: Protected