📖 Poznaj nasze wydawnictwo:
https://radionaukowe.pl/wydawnictwo🎙️ Transkrypcja na radionaukowe.pl
❤️ Wesprzyj rozwój:
patronite.pl/radionaukowe lub
suppi.pl/radionaukoweSzeroko dyskutowane były tegoroczne Nagrody Nobla, szczególnie te z fizyki i chemii. Czy nagrodzono fizyków i chemików czy raczej naukowców praktykujących „computer science”?
Przypomnijmy, w dziedzinie fizyki nagrodzeni zostali John Hopfield i Geoffrey Hinton za fundamentalne odkrycia i wynalazki, które umożliwiają uczenie maszynowe za pomocą sztucznych sieci neuronowych, a w dziedzinie chemii David Baker za projektowanie nowych białek przy użyciu narzędzi komputerowych, Demis Hassabis i John Jumper za stworzenie modelu sztucznej inteligencji AlphaFold2.
Wydaje się, że ich praca wykracza poza tradycyjny podział dyscyplin naukowych. – Nie mamy jeszcze nazw dla dyscyplin, które na naszych oczach się wykuwają – wskazuje filozofka i badaczka nowych technologii, prof. Aleksandra Przegalińska. To jedna z czołowych polskich specjalistek od AI, więc naturalnie rozmawiamy o tej technologii, jej rozwoju, przyszłości i zagrożeniach.
W pracach nad technologiami AI na razie zdecydowanie przodują Amerykanie, gdzie narzędzia AI są rozwijane głównie przez prywatny biznes. – Można by się pokusić o stwierdzenie, że w jakimś sensie tę nagrodę Nobla dostała firma Google – pół żartem, pół serio zauważa prof. Przegalińska. – Geoffrey Hinton dostał Nobla za to, co stworzył koncepcyjnie jeszcze przed pracą w firmie Google, ale spędził tam kilkanaście lat, rozwijając te algorytmy. Google to firma, która bardzo konsekwentnie sztuczną inteligencję u siebie rozwijała. I Hinton jest tego siłą napędową. Z drugiej strony AlphaFold to system wymyślony m.in. przez Demisa Hassabisa w Deep Mind, która jest spółką-córką Google'a – dodaje naukowczyni.
Zdaniem prof. Przegalińskiej, Europa jest bardziej ostrożna, na razie przygląda się zastosowaniom AI i próbuje je regulować. Europejskie warunki mogą jednak zaowocować czymś naprawdę ciekawym i pożytecznym: mamy możliwość stworzenia wielu wspieranych przez państwo modeli AI w swoich językach narodowych, karmionych danymi w naszym języku. Takie modele mogą być bardziej wiarygodne i „solidniejsze” w użytkowaniu niż wielki, amerykański Chat GPT.
A dlaczego Chat GPT tak często zmyśla (określa się to „haluconywaniem”) i nie potrafi powiedzieć „nie wiem”? To trochę wina tego, na jakich źródłach był trenowany (m.in. internetowe forum Reddit), a trochę nas, użytkowników. Zdarza się nam podawać chatowi słabe prompty (wypluwa wtedy odpowiedzi niższej jakości) czy wykorzystywać treści wygenerowane przez chat bez żadnych zmian czy korekty. Kiedy trafiają do internetu w takiej formie, stają się częścią dostępnych dla chata zasobów, który w efekcie… uczy się na podstawie własnych treści. To powoduje wyraźny spadek jakości jego dalszych tworów. – Powinniśmy wziąć trochę więcej odpowiedzialności na siebie – wskazuje prof. Przegalińska.
Z odcinka dowiecie się też, co myślą o kierunku rozwoju AI jej twórcy, jakie są inne ciekawe rozwiązania (nie tylko Chat GPT), ile wiemy o tym, jak dokładnie działają modele AI (co z tą „czarną skrzynką”), jak edukować w kwestii obsługi AI i do czego prof. Przegalińska używa swojego awatara (i czy nie jest jej dziwnie z tym, że istnieje). Polecam, temat ważny, który zostanie z nami na kolejne lata.