Generatywna technologia sztucznej inteligencji - wielkie nadzieje i zarazem zagrożenia. Jak przypominają autorki podcastu - Sylwia Czubkowska i Joanna Sosnowska, znalazła się ona na liście najważniejszych zagrożeń tego roku, zdaniem raportu Eurasia Group. Czy i jak zatem regulować AI z myślą o naszym bezpieczeństwie? Czy grozi nam katastrofa? Jak AI generuje dezinformację? Co z etycznymi aspektami sztucznej inteligencji? Zapraszamy na kolejny odcinek Techstorii !
W tym odcinku:
Metafora samolotu 02:49
AI generuje dezinformację 16:54
Microsoft zwalnia etyków 22:41
Google walczy z krytyką AI 27:00
AI jak stochastyczna papuga 34:59
Czy i jak regulować AI 42:51
Źródła dla dociekliwych:
Sztuczna inteligencja jest jak awaryjny samolot;-
https://www.nytimes.com/2023/03/24/opinion/yuval-harari-ai-chatgpt.html?smid=url-share
O zagrożeniu stochastycznymi papugami: czy modele językowe mogą być za duże?
https://dl.acm.org/doi/10.1145/3442188.3445922
O fałszywych ilustracjach z aresztowania Trumpa
https://www.bbc.com/news/world-us-canada-65069316
O odpowiedzialności za generowanie przez AI dezinformacji
https://technologia.dziennik.pl/aktualnosci/artykuly/8687018,falszywki-ai-prawo.html