Vierendertigste bloemlezing over ChatGPT (en aanverwante technologieën)

Ik wil me op voorhand excuseren voor deze vierendertigste bloemlezing over generatieve AI. Deze blogpost bevat namelijk maar liefst zeven langere samenvattingen van bijdragen. De bijdragen gaan bovendien niet over generatieve AI en leren, opleiden en onderwijs. Maar elke bijdrage heeft wel invloed op leren, opleiden en onderwijs. Lees dus verder. En bekijk ook de 71 links naar artikelen over ChatGPT en aanverwante technologieën die Nederlandstalig zijn of die ik door tijdgebrek niet heb samengevat.

A photo of a computer monitor displaying an article with a false headline and misleading information in the text, accompanied by an image supporting the false information. The headline of the article could be something sensational like 'Scientists Discover Earth is Flat', and the accompanying image could show a manipulated view of the Earth to make it appear flat. The text of the article contains clear misinformation and exaggerations to support the sensational headline. On the side of the monitor, there is an image of an AI logo, indicating that the content has been generated by a generative AI application.
DALL-E: A photo of a computer monitor displaying an article with a false headline and misleading information in the text, accompanied by an image supporting the false information. The headline of the article could be something sensational like ‘Scientists Discover Earth is Flat’, and the accompanying image could show a manipulated view of the Earth to make it appear flat. The text of the article contains clear misinformation and exaggerations to support the sensational headline. On the side of the monitor, there is an image of an AI logo, indicating that the content has been generated by a generative AI application.

Misinformation reloaded? Fears about the impact of generative AI on misinformation are overblown

De opkomst van generatieve AI leidt tot ook zorgen, onder meer over de toename en personalisatie van misinformatie. Felix Simon, Sacha Altay en Hugo Mercier menen de de soep niet zo heet gegeten wordt als ie wordt opgediend. Ik kan me echter niet volledig vinden in hun bevindingen.

Generatieve AI is in staat om op basis van veel data nieuwe teksten, beelden en audio te genereren waarvan het lijkt alsof ze door een mens zijn gemaakt. Er zijn zorgen dat het hierdoor makkelijker wordt om overtuigende maar onjuiste inhoud op grote schaal te creëren. Dit zou mogelijk rampzalige gevolgen kunnen hebben voor overtuigingen, gedrag, publieke informatie en democratie. Deze zorgen worden onderverdeeld in vier categorieën: toename in hoeveelheid misinformatie, kwaliteitsverbetering van misinformatie, personalisatie van misinformatie en onbedoelde creatie van aannemelijke maar onjuiste informatie.

Simon cs. bespreken de eerste drie argumenten en concluderen dat deze op dit moment speculatief zijn en dat bestaand onderzoek hooguit wijst op bescheiden effecten van generatieve AI op misinformatie.

Zij stellen dat hoewel generatieve AI de productie van misinformatie makkelijker maakt, dit niet noodzakelijkerwijs zal leiden tot meer consumptie ervan. De consumptie van misinformatie wordt meer beperkt door de vraag ernaar dan door het aanbod. De vraag naar misinformatie is op dit moment al gemakkelijk in te vullen en de bijzondere inhoud ervan is volgens de auteurs minder belangrijk dan het bredere narratief dat het ondersteunt.

Wat betreft de verhoogde kwaliteit van misinformatie, merken Simon cs. op dat het al relatief makkelijk is voor producenten van misinformatie om de waargenomen betrouwbaarheid van hun inhoud te verhogen. Zelfs als generatieve AI er toe zou leiden dat de algehele aantrekkelijkheid van misinformatie groter zou worden dan zou dit zich grotendeels onttrekken aan het zicht van het publiek, dat overwegend inhoud van ‘mainstream bronnen’ consumeert, zo menen Simon cs.

De auteurs schrijven verderf dat generatieve AI weliswaar mogelijk bijdraagt aan de personalisatie van misinformatie maar dat dit geen significante impact zal hebben. De technologie die micro-targeting mogelijk maken, wordt volgens hen niet direct beïnvloed door de doorontwikkeling van generatieve AI. Bovendien blijft het bereiken van mensen met misinformatie, in plaats van het creëren ervan, nog steeds een knelpunt.

Dit leidt bij de auteurs tot de conclusie dat zorgen over de impact van generatieve AI op het informatielandschap, en met name de verspreiding van misinformatie, overdreven zijn. Deze zorgen behoren volgens hen tot een brede categorie van morele paniek rondom nieuwe technologieën. Er wordt volgens hen vaak ten onrechte aangenomen dat mensen goedgelovig zijn. Bovendien zien dergelijke zorgen volgens de auteurs over het hoofd dat ons huidige informatie-ecosysteem te danken is aan een complex web van instituties die betrouwbare informatie verschaffen. Deze instituties hebben zich volgens hen al aangepast aan nieuwe media. Wel stellen zij dat regulering van generatieve AI plaats zou moeten vinden. De auteurs onderstrepen echter het belang van het versterken van bestaande instituties en vertrouwen in betrouwbaar nieuws.

Persoonlijk vind ik het perspectief van de auteurs echter te beperkt. Je moet als het gaat om misinformatie en desinformatie  generatieve AI in een bredere context beschouwen. De combinatie generatieve AI en sociale media kan wel degelijk kwalijke gevolgen hebben. Een behoorlijke grote groep mensen is gevoelig voor desinformatie en misinformatie. Kijk bijvoorbeeld naar de rol van Facebook bij verkiezingen of naar de rol van X bij het conflict in Gaza. Generatieve AI maakt het makkelijker om overtuigend nepnieuws te maken die mensen vervolgens gepusht krijgen via TikTok etc. Er is wellicht geen sprake van een vraag naar misinformatie (‘pull’), maar wel van een opgedrongen aanbod (‘push’). Het argument van vraag en aanbod houdt geen rekening met sociale media en hun algoritmen. Ook onderschatten de auteurs wat mij betreft dat de taalmodellen gevoed worden met nepnieuws en dat hallucinaties ook kunnen worden opgenomen in het taalmodel. De taalmodellen zijn gevoed met data van internet die lang niet altijd betrouwbaar is. Ze hebben wel een punt dat we niet zeker weten of dit ook gaat gebeuren. Ook hebben zij m.i. een punt dat betrouwbare instituties deze taalmodellen kunnen voeden met betrouwbare informatie. Daarom zie ik ook niets in het voorkomen dat online bronnen ‘gescrapt’ kunnen worden. Dat afspraken gemaakt moeten worden over erkenning hiervan is m.i. evident.

Simon, F. M., Altay, S., & Mercier, H. (2023). Misinformation reloaded? Fears about the impact of generative AI on misinformation are overblown. Harvard Kennedy School (HKS) Misinformation Review. https://doi.org/10.37016/mr-2020-127

AI and Peer Review: Enemies or Allies?

Lauren Coffey verkent de mogelijkheden en zorgen rondom het gebruik van AI in het peer-reviewproces van wetenschappelijke publicaties. Volgens Coffey -die hiervoor enkele onderzoekers heeft gesproken- staat het peer-reviewsysteem onder druk door de toename van het aantal in te dienen papers en het gebrek aan hoogwaardige reviewers. James Zou en Laurie Schintler hebben namelijk onderzoek gedaan naar het gebruik van AI in peer review en ontdekten dat de overlap tussen menselijke en AI-feedback “vergelijkbaar” is, vooral bij papers die nog niet rijp zijn voor publicatie.

Zou constateert dat het steeds moeilijker wordt om tijdig kwalitatieve feedback te krijgen, en Schintler wijst op de lange wachttijden voor peer-reviews, die soms oplopen tot twee jaar. Beiden zien potentie in het gebruik van AI, maar benadrukken AI als hulpmiddel en niet als vervanging van menselijke beoordeling. Ze wijzen ook op het belang van transparantie en het volgen van ethische richtlijnen bij het gebruik van AI.

Er zijn echter ook zorgen over het potentieel van bias en het creëren van valse informatie door AI. Zou en Schintler merken echter op dat mensen ook hun eigen vooroordelen hebben en dat deze, ongeacht de bron, aangepakt moeten worden. Er zijn ook zorgen over het feit dat het gebruik van AI in peer review kan worden gezien als een eenvoudige oplossing voor diepere systemische problemen in het peer-reviewsysteem.

Coffey schrijft dat verschillende wetenschappelijke tijdschriften en academische groepen al richtlijnen hebben opgesteld voor het gebruik van AI bij publicaties, waarbij sommigen het gebruik van AI beperken of verbieden. Volgens haar maakt dit een zorgvuldige benadering bij het integreren van AI in het peer-reviewproces noodzakelijk.

Generaliserende AI hoeft niet van elke situatie een voorbeeld te krijgen

Kikki Weststeijn gaat in de NRC in op een nieuwe methode om neurale netwerken, zoals ChatGPT, efficiënter en energiezuiniger te trainen. Zij beschrijft het concept van ‘compositioneel nadenken’, een vaardigheid die mensen van nature bezitten en waarbij de betekenis van een geheel wordt afgeleid uit de betekenis van de delen en hun structuur. Ze gebruikt het voorbeeld van kinderen die wiskunde leren om aan te tonen hoe dit proces werkt en stelt dat neurale netwerken traditioneel gezien moeite hebben met dit proces.

Westeijn schrijft dat onderzoekers Brenden Lake en Marco Baroni een manier hebben ontwikkeld om neurale netwerken ‘compositionaliteit’ aan te leren. Hierdoor kunnen deze netwerken met minder training correcte resultaten produceren. Het gevolg is een aanzienlijke besparing van energie en middelen. De ontwikkeling van AI wordt daardoor ook toegankelijker, en niet alleen meer ‘een ding’ voor kapitaalkrachtige bedrijven zoals OpenAI, Google of Meta.

Weststeijn laat echter ook criticaster Jelle Zuidema aan het woord, die aangeeft dat de omvang van het door Lake en Baroni gebruikte model aanzienlijk kleiner is dan die van moderne modellen zoals ChatGPT. Hierdoor blijft het de vraag in hoeverre grotere modellen baat kunnen hebben bij deze trainingstechniek. Er is dan ook verder onderzoek nodig naar het slimmer trainen van taalmodellen, gezien de hoge kosten en energieverbruik van de huidige grote modellen. Maar interessant en veelbelovend is deze ontwikkeling volgens mij wel.

Humans Absorb Bias from AI—And Keep It after They Stop Using the Algorithm

Lauren Leffer gaat in op de complexiteit en risico’s van AI en de invloed daarvan op menselijke beslissingen. Ze schrijft dat AI, net als de mensen die AI ontwikkelen, fouten kan maken en vooroordelen kan vertonen die onopgemerkt blijven door veel gebruikers. Deze vooroordelen kunnen schadelijke gevolgen hebben, vooral voor gemarginaliseerde groepen. Leffer geeft voorbeelden zoals spraakherkenningssoftware die moeite heeft met niet-Amerikaanse accenten en gezondheidszorgalgoritmen die fouten maken door een gebrek aan diversiteit in de trainingsdata.

Leffer verwijst naar een studie van Helena Matute en Lucía Vicente van de Universiteit van Deusto, waarin wordt aangetoond dat menselijke gebruikers de vooroordelen van AI kunnen overnemen in hun eigen besluitvorming, zelfs nadat ze zijn gestopt met het gebruik van het AI-programma. Hun onderzoek betrof een simulatie waarin niet-experts een medische diagnostische taak moesten uitvoeren. De onderzoekers ontdekten dat degenen die valse suggesties van een AI-model ontvingen, geneigd waren dezelfde fouten te maken bij toekomstige beslissingen.

Leffer benadrukt dat dit probleem niet eenvoudig op te lossen is door algoritmes achteraf aan te passen. Zodra een AI-model mensen met vooroordelen beïnvloedt, kan de schade al aangericht zijn. Deskundigen blijken volgens Leffer het onderzoek interessant maar niet verrassend te vinden, en wijzen op het unieke risico van AI: mensen kunnen geneigd zijn meer autoriteit toe te kennen aan AI dan aan andere informatiebronnen, waardoor de impact van AI-vooroordelen potentieel ernstiger is.

Volgens Leffer is het daarom van belang dat sprake is van transparantie over hoe AI-systemen werken, en dat gebruikers weten hoe deze werken, om de impact van AI-vooroordelen te minimaliseren. Zij waarschuwt voor een vicieuze cirkel waarin bevooroordeelde AI leidt tot meer bevooroordeelde mensen en omgekeerd. Er zou sprake moeten zijn van een breder begrip van AI-systemen om deze cyclus te doorbreken.

AGI likely in next 10 years: Sam Altman reveals OpenAI’s plans for GPT-5, and more

Sam Altman, CEO van OpenAI, heeft onlangs zijn visie gedeeld over de ontwikkeling van Artificiële Algemene iIntelligentie (AGI) en de toekomstige plannen van zijn bedrijf met betrekking tot GPT-5. OpenAI heeft een sterke positie verworven met de lancering van ChatGPT in november 2022.

Volgens Wikipedia is AGI “de hypothetische intelligentie van een machine die de capaciteit heeft om elke intellectuele taak die een mens kan uitvoeren, te begrijpen of te leren“. Er wordt veel gesproken over AGI, over de potentie en zorgen. Tijdens een interview met The Wall Street Journal deelden Altman en Mira Murati, CTO van OpenAI, hun ambitieuze visie op AGI. Volgens hen zal AGI een enorme hoeveelheid productiviteit en economische waarde genereren en heeft AGI de potentie om ons leven aanzienlijk te verbeteren.

Altman gelooft dat AGI binnen de komende tien jaar een realiteit zou kunnen worden. Naarmate percepties en definities van intelligentie veranderen, zal OpenAI volgens hem harder moet werken om deze veranderende doelen bij te houden. Murati stelt dat de ontwikkeling van GPT (de techniek waar ChatGPT gebruik van maakt) deel uitmaakt van de voortdurende ontwikkeling richting AGI.

Ten aanzien van GPT-5, zegt Murati dat OpenAI nog niet zover is en dat het nog op “need-to-know” basis is. Altman benadrukt dat de ‘gemiddelde’ prestaties op algemenere taken van AI-systemen indrukwekkend kunnen zijn en aanzienlijke hulp kunnen bieden.

Nota bene: je komt ook nog steeds veel artikelen tegen waarin getwijfeld wordt of we het stadium van AGI ooit zullen bereiken.

What Do ChatGPT’s New Capabilities Really Mean For Us All?

Bernard Marr gaat in deze bijdrage in op de meest recente updates van ChatGPT. ChatGPT heeft nu de mogelijkheid om taal uit beelden te analyseren. Dat betekent dat ChatGPT in theorie foto’s, grafieken, handschriften en allerlei ongestructureerde data kan begrijpen. Marr illustreert dit met voorbeelden zoals het beschrijven van foto’s, diagnosticeren van kapotte apparatuur en het omzetten van aantekeningen op een whiteboard in leesbare notities (ik moet dit echt eens met mijn handgeschreven notities uitproberen).

Bernard Marr staat ook stil bij de beperkingen en ethische overwegingen die gepaard gaan met deze technologie. Er zijn restricties, met name in het analyseren van menselijke gezichten, om privacy te beschermen. Toch zijn er manieren gevonden om deze beperkingen te omzeilen. Dit kan volgens hem ook gebeuren met de visuele en stemfuncties van ChatGPT.

Een andere belangrijke ontwikkeling, volgens Marr, is de mogelijkheid van ChatGPT om te spreken en te luisteren via de mobiele app. Dit kan, in vergelijking met schriftelijke dialogen, leiden natuurlijker en vloeiender gesprekken met ChatGPT. Volgens Marr is de technologie nog niet perfect, en is onder meer sprake van probklemen bij het begrijpen van zijn spraak.

Marr verkent in deze bijdrage ook de bredere implicaties van deze ontwikkelingen voor AI, met name als het gaat om AGI. Tot slot staat Marr stil bij de snelheid waarmee de ontwikkeling van AI vordert. Hij meent dat voorzichtigheid en bewustzijn van de ethische overwegingen die gepaard gaan met deze technologische vooruitgang van belang zijn.

3 Obstacles to Regulating Generative AI

De laatste tijd is, zowel in de VS als in de EU, sprake van toenemende aandacht en activiteiten om AI te reguleren. Andrew Burt, werkzaam bij een op AI gericht juridisch adviesbureau, schetst echter een complex landschap waarin traditionele regelgevingsinstrumenten volgens hem tekortschieten om de unieke uitdagingen van generatieve AI-systemen aan te pakken. Volgens hem zijn nieuwe risico’s van generatieve AI moeilijk te definiëren en te beheersen.

Burt onderscheid drie belangrijke obstakels bij het reguleren van generatieve AI:

  1. Het is ingewikkeld om de “schade” die deze systemen kunnen veroorzaken te definiëren, vooral omdat de negatieve effecten vaak cumulatief zijn en zich in de loop van de tijd opbouwen.
  2. Het vaststellen van de concrete schade en het bepalen van passende sancties is een uitdaging.
  3. Het is ingewikkeld om AI-gerelateerde spraak te reguleren, vanwege de vrijheid van meningsuiting in westerse democratieën.

Volgens Burt is er wel hoop in de vorm van innovatieve benaderingen van regelgeving. Hij pleit voor een heroverweging van de manier waarop wetten worden toegepast en hoe bedrijven hun naleving kunnen aantonen. Als voorbeeld noemt hij het pilotprogramma van de U.S. Food and Drug Administration, dat gericht was op het certificeren van software-ontwikkelingsprocessen in plaats van individuele systemen. Je zou dus meer moeten kijken naar het ontwikkelingsproces dan naar het eindresultaat.

Burt schrijft ook nog over een specifieke technologische oplossing: “constitutionele AI”. Dit is volgens hem een methode waarbij een AI-systeem het gedrag van een ander AI-systeem in de gaten houdt. Burt erkent dat er risico’s zijn verbonden aan het vertrouwen op technologie om technologische risico’s te monitoren, maar stelt dat het in het geval van generatieve AI nog gevaarlijker zou zijn om dit niet te doen.

Andere bronnen over ChatGPT (geen tijd om kort te beschrijven of Nederlandstalig)

  1. ChatGPT Custom Instructions op Pfauth.com
  2. Jan van Dijk: The Power of Big Tech and How to Deal With It
  3. Oumaima Hajri over Kunstmatige Intelligentie op Brainwash
  4. How Job Training Must Change in the AI Age – Harvard Business Review Podcast
  5. AI EdTech Products Attract Investors – The PIE News
  6. Wat gebeurt er als je ChatGPT koppelt aan een robot?
  7. OpenAI, AI, AGI, Sam Altman: Wall Street Journal – Decrypt
  8. Bill Gates Does Not Expect GPT-5 To Be Much Better Than GPT-4 – The Decoder
  9. Help Me Write: Google Docs’ New AI Writing Tool Explained for Teachers – Tech & Learning
  10. Most Students Outrunning Faculty in AI Use – Inside Higher Ed
  11. Artificial Intelligence for Everyone – Colby College News
  12. A Learning Odyssey – Harvard Independent
  13. Opinie: Kijk Verder Dan De Jubelende Optimisten – Barend Last op LinkedIn
  14. Teach College Students to Use AI Proficiently – Inside Higher Ed
  15. Wat Gaat De EU Doen Met Generatieve AI En Foundation Models In De AI Act? – Ius Mentis
  16. How AI Can Help Leaders Make Better Decisions Under Pressure – Harvard Business Review
  17. Web Scraping with Perl & ChatGPT – ProxiesAPI
  18. Use ChatGPT to Create a Script for a Talking Avatar Sales Training – The Learning Guild
  19. Generative AI: 5 Enterprise Predictions for AI and Security for 2023, 2024, and Beyond – CIO
  20. Four Things That Matter in the AI Hype Cycle – CIO
  21. ChatGPT and Generative AI: 25 Applications to Support Student Engagement – Times Higher Education
  22. AI and Critical Thinking
  23. Preparing Students for an AI-Driven Future: A Guide for Teachers
  24. Wereldwijde Top over Aanpak Gevaren AI
  25. CIOs and Next-Gen AI: Navigating the Possibilities
  26. Exploring Multi-Modal Prompt Injection
  27. Obsidian: Smart Connections
  28. 12 Prompt Engineering Techniques
  29. Breakout Learning, Immersive Discussions, and AI Grading
  30. 7 Questions on Generative AI in Learning Design – Campus Technology
  31. Is The Metaverse The Next Invention After ChatGPT? – Inside Higher Ed
  32. AI in Higher Ed: Using What We Already Know About Good Teaching Practices – EdSurge
  33. The Potential of AI and ChatGPT in Continuing Education
  34. There’s an AI for That
  35. What OpenAI Really Wants
  36. The Impact of AI on Instructional Design
  37. The Impact of AI on Instructional Design
  38. Generative AI is a Game Changer for Higher Education – ComputerWeekly
  39. Artificial General Intelligence is Already Here – Noema
  40. AI 101: Possibilities & Considerations of Generative Artificial Intelligence
  41. Report: Few campus IT leaders see AI as a top priority
  42. 2023 Survey of Campus Chief Technology/Information Officers
  43. Bedrijf achter ChatGPT mikt op megawaardering van 86 miljard dollar
  44. What we learned from using ChatGPT for a year
  45. AI transformations in LMS: 6 remarkable applications
  46. Tackling A New Era Of Problems For AI And ML Models
  47. Create engaging AI generated podcasts
  48. Chatbot Hallucinations Are Poisoning Web Search
  49. Smarter than humans in 5 years? The breakneck pace of AI
  50. The usability problem with prompt-driven AI
  51. How ChatGPT and other AI tools could disrupt scientific publishing
  52. How Generative AI Is Being Received in Higher Education
  53. Digital Transformation of Examinations is Here to Stay?
  54. Unlocking the Power of Personalized Learning With Trustworthy AI
  55. The Truth About AI’s Classroom Potential
  56. Impact of Artificial Intelligence on Higher Education
  57. Parents Open to AI Use. But with a Lot of Questions
  58. 4 ways video creates better learning experiences while AI-proofing the assessment
  59. My Student Was Submitting AI Papers. Here’s What I did
  60. Generative AI is a game changer for higher education
  61. AI tools for teachers
  62. ChatGPT: 25 applications in teaching and assessment
  63. 49% of Teachers not prepared for AI impact
  64. Aidemia for creating learning content
  65. ‘Godfather of AI’ calls for organization to defend humanity
  66. How A.I. Ruins the Internet
  67. Generative AI-Based Automated Translation
  68. Why we must teach AI to empathize with us
  69. Generative AI and Machine Learning are engineering the future in these 9 disciplines
  70. ChatGPT is transforming the postdoc experience
  71. AI Could Revolutionize Learning & Development

Mijn bronnen over (generatieve) artificiële intelligentie

Deze pagina bevat al mijn bijdragen over (generatieve) artificiële intelligentie, zoals ChatGPT.

This content is published under the Attribution 3.0 Unported license.

Delen

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *