Han är tech-veteranen som ledsnade på övervakningen och försökte lämna sociala medier. Han vill reglera AI, fördomssäkra algoritmerna och förespråkar omtänksamhet när vi tar fram nya tjänster och produkter. Idag har vi med oss Per Axbom i podden för att prata om digital etik i ett tidevarv då allt bara snurrar fortare. Hör hans tankar kring exploatering som grund för tekniken, om upphovsrätt som en kommande stridsfråga och varför AI är mer än bara en hammare. Desstuom förklarar han varför chat GPT borde sluta be om ursäkt.
Tidskoder och citat
2.32 Per om det han jobbar med.
3.16 Så fastnade Per för digital etik.
5.59 Per om verklig fara, relaterat till AI.
6.47 Per om inbillad fara, i relation till AI.
8.24 Om faran i att se AI som ”bara” ett verktyg, som en hammare.
9.06 Om risken att bygga in västerländsk bias i AI.
11.32 Om New York Times stämning mot Open AI.
14.36 Hänger lagstiftningen med i den snabba utvecklingen?
15.31 Kommer stater ta ledningen över AI-utvecklingen mer framöver?
17.58 Om att vår data används för att träna de nya AI-verktygen.
18.53 Om riskerna med att dagens generativa AI härmar mänskliga uttryckssätt och empati.
21.24 Kommer chatbottar komplettera lärarledda lektioner?
22.25 Om vikten av kontrollerad testning av AI, innan man implementerar det i sina system.
23.43 Här finns de största möjligheterna med AI.
Per sätter sig i Heta stolen.
Därför lämnade Per sociala medier.
Per rekommenderar ett ämne att ta upp i podden.
Detta händer framåt runt Per Axbom.
https://axbom.com/info/