Ignorer la navigation
KI kann jetzt sprechen. Sollten wir dem vertrauen, was sie sagt?
Artikel

KI kann jetzt sprechen. Sollten wir dem vertrauen, was sie sagt?

OpenAIs GPT-3 und andere neuronale Netze können originelle Prosa mit verblĂŒffender GelĂ€ufigkeit schreiben – eine Entwicklung, die tiefgreifende Auswirkungen auf die Zukunft haben könnte.



Bewertung der Redaktion

10

QualitÀten

  • Augenöffner
  • Meinungsstark
  • Brisant

Rezension

Am 9. November 2022 erreichte die Nutzer der KFC-App folgende KI-generierte Push-Nachricht: „Gedenktag an die Reichspogromnacht – Gönn dir ruhig mehr zarten Cheese zum knusprigen Chicken.“ Eine Entgleisung, die Spott und Schadenfreude auslöste. Bei der KI GPT-3 sieht die Sache schon anders aus: Sie kommuniziert differenziert und kontextbezogen, wie es zuvor nur Menschen vermochten. Das wirft Fragen auf: Wer entscheidet, wie diese scheinbar intelligente Maschine mit uns redet? Wer soll davon profitieren? Und wollen wir das ĂŒberhaupt?

Zusammenfassung

OpenAI hat mit GPT-3 ein Programm entwickelt, das den Eindruck von menschlicher Intelligenz vermittelt.

In einem Komplex in Iowa steht einer der leistungsstĂ€rksten Supercomputer der Welt. Hier lĂ€uft das von der Firma OpenAI entwickelte Programm Generative Pre-Trained Transformer 3, kurz GPT-3. Das Programm spielt eine Art Worteraten, indem es permanent nach fehlenden Begriffen sucht, die fĂŒr einen schlĂŒssigen Text erforderlich sind. So entsteht die Illusion, dass es das Gesagte tatsĂ€chlich versteht. OpenAI wurde 2015 von mehreren Silicon-Valley-Schwergewichten gegrĂŒndet, darunter Elon Musk und Greg Brockman. GPT-3 kam 2020 in einer Testversion heraus. Die ersten Nutzer waren verblĂŒfft, wie sehr es dem Computer HAL 9000 aus dem Film 2001: Odyssee im Weltraum Ă€hnelte. Aber kann GPT-3 tatsĂ€chlich denken? Oder ist es vielmehr ein „stochastischer Papagei“, der sich nur aneignet und neu zusammenstellt, was er in menschengeschriebenen Texten vorfindet?

GPT-3 ist ein sogenanntes Large Language Model oder LLM, ein komplexes neuronales Netzwerk mit mehreren Schichten und Abstraktionsebenen.Dessen „Intelligenz“ Ă€hnelt der eines Kindes.Ein LLM lernt von Grund auf, indem...

Über den Autor

Steven Johnson schreibt fĂŒr The New York Times Magazine und ist Autor von Wo gute Ideen herkommen. 


Kommentar abgeben oder DĂ©marrer une discussion

Mehr zum Thema

Vom gleichen Autor