Das Internet läuft über mit KI-generierten Texten - doch genau dieses Internet wird zum Training neuer KI-Modelle benutzt. Was passiert also, wenn die KI von sich selbst lernt? Wird sie krank und kollabiert? Oder erschafft sie eine neue Super-KI? Marie und Gregor nehmen eine der größten Bedrohungen für das Internet und die KI-Welt unter die Lupe.
Über die Hosts:
Gregor Schmalzried ist freier Tech-Journalist und Berater, er arbeitet u.a. für den Bayerischen Rundfunk und Brand Eins.
Marie Kilg ist Chief AI Officer bei der Deutschen Welle. Zuvor war sie Produkt-Managerin bei Amazon Alexa.
In dieser Folge:
0:00 KI-Suchmaschine gone wrong
5:00 KI-Bullshit 2.0
8:10 "Model Collapse”: Wenn KI wahnsinnig wird
14:20 Was blüht uns in Zukunft?
25:30 Was haben wir mit KI gemacht?
Links und Quellen:
KI-Podcast-Folge zum Thema Halluzinationen und KI-Bullshit
https://www.ardaudiothek.de/episode/der-ki-podcast/wie-schaffe-ich-dass-ki-mir-die-wahrheit-sagt/ard/13220849/
KI-Suchmaschine Perplexity
https://www.perplexity.ai/
Paper zu "Model Collapse”
https://www.nature.com/articles/s41586-024-07566-y
Wenn Künstliche Intelligenz krank wird
https://www.faz.net/pro/d-economy/kuenstliche-intelligenz/wenn-kuenstliche-intelligenz-krank-wird-19902462.html
Synthetische Daten im KI-Training
https://www.interconnects.ai/p/llm-synthetic-data
Unveröffentlichte Wasserzeichen-Technologie für ChatGPT
https://t3n.de/news/wasserzeichen-tool-chatgpt-ki-generierte-texte-entlarven-1639102/
Redaktion und Mitarbeit:
David Beck, Cristina Cletiu, Chris Eckardt, Fritz Espenlaub, Marie Kilg, Mark Kleber, Gudrun Riedl, Christian Schiffer, Gregor Schmalzried
Kontakt:
Wir freuen uns über Fragen und Kommentare an
[email protected].
Unterstützt uns:
Wenn euch dieser Podcast gefällt, freuen wir uns über eine Bewertung auf eurer liebsten Podcast-Plattform. Abonniert den KI-Podcast in der ARD Audiothek oder wo immer ihr eure Podcasts hört, um keine Episode zu verpassen. Und empfehlt uns gerne weiter!