De afgelopen week had ik weer het gevoel geconfronteerd te worden met een tsunami aan ontwikkelingen op het gebied van (generatieve) AI. Deze blogpost bevat een selectie van de berichten waarover ik me verwonderd heb.
Nieuwe AI-toepassingen voor wetenschappelijk onderzoek
Een interessante ontwikkeling is de opkomst van specifieke toepassingen voor het doen van onderzoek. Applicaties als ChatGPT, Google Gemini en Claude bevatten al mogelijkheden voor verdiepend onderzoek. Er zijn echter ook specifieke AI-toepassingen op dit terrein in opkomst. Een voorbeeld is het bedrijf FutureHouse dat een nieuwe reeks gespecialiseerde ‘AI-onderzoeksagenten’ heeft gelanceerd, die wetenschappers helpen bij het navigeren door miljoenen onderzoekspapers en databases. Het platform heeft vier ‘agents’: Crow voor algemeen onderzoek, Falcon voor literatuurstudies, Owl voor het identificeren van eerder onderzoek en Phoenix voor scheikundige werkprocessen.
Volgens FutureHouse presteren deze agenten beter dan zowel PhD-onderzoekers als traditionele zoekmodellen bij het zoeken en samenvatten van literatuur. Deze applicaties zijn ook relevant voor leren, opleiden en onderwijs. Je kunt hierdoor sneller relevante bronnen zoeken en in kortere tijd de relevantie van bronnen scannen. De output kun je zelf verwerken in notities of leermaterialen. De agenten zijn direct toegankelijk via de website of via een API.
Ik heb eens geëxperimenteerd met deze tools. Ik heb bijvoorbeeld gevraagd of iemand onderzoek heeft gedaan naar het learning design van massive open online courses. Ik heb een flinke lijst met (samenvattingen) van bronnen gekregen. Behalve het artikel dat ik zelf met oud-collega’s hierover heb geschreven ;-).
Verder heb ik de vraag gesteld: Provide an overview of pedagogical requirements of succesful massive open online courses. Provide a definition of massive open online courses and a list of criteria of succes. Define what pedagogical requirements are. Comment on the pedagogical requirements you describe. Dit leverde een nuttig en uitgebreid overzicht op. Daarbij vroeg ik me wel af of je als onderzoeker het leren niet te zeer aan de AI-applicatie uitbesteedt.
Hoe de kracht van AI sterk toeneemt
In een wereld waar AI exponentieel groeit, moet het onderwijs zich aanpassen om relevant te blijven. Volgens Stefan Bauschard zal AI binnen vijf jaar 10.000 keer krachtiger zijn. Dat betekent dat traditionele onderwijsmethoden niet langer voldoende zijn. In plaats van te focussen op het detecteren van AI-geassisteerde plagiaat, moeten onderwijsinstellingen zich volgens hem richten op het voorbereiden van lerenden op een toekomst waarin AI een centrale rol speelt. Dit vereist een verschuiving naar het leren van vaardigheden zoals het sturen van systemen, het auditen van AI op grote schaal en het integreren van menselijk inzicht met algoritmische kracht. Werkgevers verwachten dat afgestudeerden niet alleen AI kunnen controleren, maar ook nieuwe waarde kunnen creëren door samenwerking met AI. Het is daarom van belang dat onderwijsinstellingen hun curricula herzien om lerenden voor te bereiden op deze nieuwe uitdagingen, zodat ze niet achterblijven in een snel veranderende wereld. Deze bijdrage stemt tot reflectie, als je het mij vraagt.
AI-oplichters in het onderwijs
Hier had ik eerlijk gezegd nog niet eerder bij stil gestaan. In een recent artikel beschrijft Pedro De Bruyckere de toenemende invloed van AI-oplichters in het onderwijs. Dit probleem schijnt steeds vaker voor te komen in online leeromgevingen. Docenten worden geconfronteerd met nepstudenten die zich inschrijven via centrale systemen, zich voordoen als echte studenten en zo toegang krijgen tot cursussen en financiële middelen. Deze grootschalige fraude leidt niet alleen tot financiële verliezen, maar ook tot een aantasting van het vertrouwen tussen docenten en studenten. Docenten moeten nu extra maatregelen nemen, zoals het controleren van profielfoto’s en het analyseren van video’s, om de echtheid van hun studenten te verifiëren. Dit creëert volgens Pedro een extra belasting voor docenten, die naast hun reguliere taken nu ook fraude moeten opsporen. Zou de soep echt zo heet gegeten worden als ie wordt opgediend? Wel als je gemakkelijk via online contact aan financiële middelen kunt komen, zonder dat daar degelijke controle aan vooraf gaat.
‘Big tech’ pleit voor verplicht AI-onderwijs in Amerikaanse scholen
Meer dan 250 technologieleiders en CEO’s van toonaangevende technologiebedrijven hebben een open brief ondertekend waarin zij Amerikaanse staten oproepen om AI en informatica als verplichte examenvakken op middelbare scholen aan te bieden. De briefschrijvers, waaronder bestuurders van Microsoft, Adobe, Airbnb en Zoom, benadrukken dat dit nodig is om concurrerend te blijven met landen als China, waar AI-onderwijs al verplicht is. De auteurs van de brief stellen dat één informaticacursus op de middelbare school kan leiden tot 8% hogere salarissen, ongeacht studierichting of vervolgopleiding. De oproep sluit aan bij de recente ‘executive order’ van president Trump, die een taskforce heeft ingesteld om AI-onderwijs uit te breiden. Net zoals computer- en internetvaardigheden gemeengoed werden in het onderwijs, wordt AI volgens de samenstellers gezien als een essentiële vaardigheid voor de volgende generatie leerlingen.
Deels gaat het hierbij natuurlijk om een ‘wij van WC-Eend pleiten voor WC-Eend’-verhaal. Tegelijkertijd moet je inderdaad onderkennen dat AI steeds belangrijker wordt binnen onze samenleving, en dat iedereen eigenlijk een zekere bekwaamheid op dit terrein moet bezitten. Uiteraard geldt ook dat je AI past kunt integreren in curricula als docenten zelf ook bekwaam zijn op dit terrein.
Nieuw spraakherkenningsmodel van Nvidia
Nvidia heeft onlangs Parakeet V2 uitgebracht, een volgens eigen zeggen krachtig open-source spraakherkenningsmodel dat een uur audio in slechts één seconde kan transcriberen met professionele nauwkeurigheid. Het model schijnt de eerste plaats veroverd op de Open ASR-ranglijst met een foutpercentage van 6,05%, waarmee het modellen als ElevenLabs’ Scribe en OpenAI’s Whisper overtreft. Parakeet V2 is volledig open-source beschikbaar onder een commercieel toegankelijke CC-BY-4.0 licentie, met 600 miljoen parameters. Het model biedt geavanceerde functies zoals nauwkeurige tijdsaanduiding, hoofdlettergebruik, interpunctie en de mogelijkheid om songteksten te transcriberen. Met behulp van deze technologie wordt de drempel voor het bouwen van geavanceerde spraaktoepassingen verder verlaagd en worden tijdrovende transcripties overbodig.
CO2-uitstoot van ChatGPT blijkt verwaarloosbaar klein (op individueel niveau)
Ik moet eerlijk bekennen dat ik mezelf ook weleens schuldig voel als ik generatieve AI-toepassingen intensief gebruik. Ik adviseer ook om andere toepassingen, zoals zoekmachines, te gebruiken om op zoek te gaan naar informatie. Om energie te besparen. Daarom vind ik de bijdrage What’s the carbon footprint of using ChatGPT? van Hanna Richie een opvallend bericht. Zij schrijft dat een gemiddelde ChatGPT-zoekopdracht ongeveer 3 Wh elektriciteit verbruikt, wat neerkomt op slechts 0,00007% van het jaarlijkse elektriciteitsverbruik per persoon in het Verenigd Koninkrijk. Bij tien zoekopdrachten per dag stijgt de CO2-voetafdruk met 11 kilogram CO2 per jaar, oftewel 0,16% van de gemiddelde Britse uitstoot. Dit is een fractie vergeleken met de impact van andere dagelijkse keuzes zoals voeding, verwarming en transport. Recenter onderzoek suggereert zelfs dat het energieverbruik mogelijk tien keer lager ligt dan eerder gedacht – ongeveer 0,3 Wh per zoekopdracht.
Voor reguliere gebruikers van tekstgebaseerde AI-toepassingen is het energieverbruik dus verwaarloosbaar klein. Richie stelt dat AI op macroniveau wel degelijk significant veel energie opslurpt, dat het genereren van video’s waarschijnlijk beduidend meer energie kost dan tekst, maar dat individuele gebruikers zich geen zorgen hoeven te maken over hun persoonlijke impact bij normaal gebruik. Het probleem is wat mij betreft echter dat al deze individuen samen zorgen voor het grote energieverbruik op macroniveau. En hoe zit het dan met Deep Search? En met een steeds grootschaliger gebruik? Veel druppels maken op een gloeiende plaat wel wat uit, al is het effect van gedragsverandering op het gebied van vliegen en vlees/zuivelconsumptie een stuk groter. Punt is ook: het energiegebruik van generatieve AI komt bovenop al te grote energieconsumptie.
Perplexity gebruiken via WhatsApp
Ik heb al vaker geschreven over AI-agents. In een recent artikel laat Stefan Bauschard zien dat Perplexity.AI nu beschikbaar is via WhatsApp. Je kunt deze tool via WhatsApp gebruiken voor het fact-checken van berichten of het geven van real-time updates. Er is sprake van ondersteuning in meerdere talen. Experts zoals Microsoft’s Mustafa Suleyman en Meta’s Yann LeCun voorzien volgens Bauschard een toekomst waarin AI-assistenten onze persoonlijke digitale metgezellen worden, vergelijkbaar met de visie uit de film “Her”. Deze assistenten zullen zich aanpassen aan onze voorkeuren en gewoontes, waardoor ze steeds nuttiger worden. AI zal waarschijnlijk een steeds grotere rol spelen in hoe we informatie verwerken en taken uitvoeren.
Gemini 2.5 Pro krachtiger door verbeterde codeervaardigheden
Google heeft onlangs een vernieuwde versie van Gemini 2.5 Pro uitgebracht, specifiek gericht op verbeterde codeermogelijkheden. Deze ‘I/O edition’ biedt flinke verbeteringen voor front-end en UI-ontwikkeling, naast vooruitgang in fundamentele codeertaken zoals het transformeren en bewerken van code. De nieuwe versie staat nu op de eerste plaats op de WebDev Arena-ranglijst, die het vermogen van een model meet om esthetisch aantrekkelijke en functionele webapplicaties te bouwen. Voor L&D-professionals betekent deze ontwikkeling dat het creëren van interactieve educatieve apps toegankelijker wordt. Het model combineert namelijk geavanceerd videobegrip met codering, waardoor nieuwe toepassingen mogelijk worden zoals het automatisch omzetten van YouTube-video’s naar leerzame apps. Je bent in staat om met minder technische kennis boeiende leerervaringen te ontwikkelen. Overigens kun je met behulp van het model Veo2 binnen Gemini nu ook krachtiger, korte, video’s ontwikkelen dan bijvoorbeeld met OpenAI’s Sora (tenzij Sora de afgelopen week ook weer verder verbeterd is; wat zo maar zou kunnen).
Google Gemini app voor de iPad
Er is meer nieuws over Google Gemini. Google heeft de Gemini app geoptimaliseerd voor iPad-gebruikers, waardoor AI-ondersteuning nu volledig benut kan worden op het grotere scherm. De update, vrijgegeven op 7 mei 2025, biedt een iPad-vriendelijke interface die het volledige schermoppervlak benut in plaats van een opgeschaalde iPhone-weergave. Hierdoor kunnen gebruikers ook profiteren van Split View multitasking op de iPad, wat de productiviteit verhoogt. De update introduceert ook homescreen-widgets en verbeterde integratie met onder meer Google Photos. Hierdoor ben je in staat meer flexibel Google Gemini te gebruiken (mits je over een iPad beschikt).
Mistral Medium 3: Een nieuwe balans tussen prestatie en kosten in AI
Het Franse Mistral AI heeft op 7 mei 2025 het nieuwe Mistral Medium 3 model geïntroduceerd dat volgens de ontwikkelaars state-of-the-art prestaties levert tegen aanzienlijk lagere kosten. Het model probeert een balans te vinden tussen topkwaliteit en betaalbaarheid – met kosten die 8 keer lager liggen dan vergelijkbare modellen. Naar eigen zeggen uiteraard. Volgens Mistral AI presteert het model op of boven 90% van het niveau van Claude Sonnet 3.7 op verschillende benchmarks en overtreft het open modellen zoals Llama 4 Maverick. Het model onderscheidt zich met name op professionele toepassingsgebieden zoals programmeren en multimodale verwerking. Voor bedrijven biedt Mistral Medium 3 flexibele implementatieopties, waaronder hybride of on-premises installaties, en kan het draaien op omgevingen met vier of meer GPU’s. Het model is vanaf nu beschikbaar via Mistral’s La Plateforme en Amazon Sagemaker, met ondersteuning voor andere platforms in de nabije toekomst. Ik ben de webversie van Mistral (Le Chat) naarv aanleiding van dit bericht weer eens gaan gebruiken. Die versie heeft volgens mij ook weer sprongen vooruit gezet. De kwaliteit van de output is m.i. veel beter dan enkele maanden geleden (en van dit model gebruik ik de ‘gratis’ versie).
Avatar IV: meer realistische avatars in HeyGen
HeyGen heeft onlangs Avatar IV gelanceerd. Met behulp van dit nieuwe AI-model kun je levensechte animaties maken met behulp van één foto. Daarbij leg je stemkenmerken, natuurlijke gebaren en gezichtsuitdrukkingen nauwkeurig vast. Dit model werkt met zogenaamde ‘audio-to-expression’ technologie die stemgeluid analyseert om fotorealistische gelaatsuitdrukkingen, micro-expressies en handgebaren te genereren. Dit type modellen zijn m.i. belangrijk voor bijvoorbeeld de ontwikkeling van XR of serious games. Het model ondersteunt portret-, halflichaams- en volledige lichaamsformaten, en werkt met verschillende camerahoeken en ook met onderwerpen zoals huisdieren.
AI transformeert de landbouw
OpenAI besteedt in een bijdrage aandacht aan AI-toepassingen waar ik niet zo snel bij stil sta en eigenlijk oog geen verstand van heb. mede daarom kijk ik er waarschijnlijk van op. In deze bijdrage wordt namelijk beschreven hoe John Deere, een bijna 200 jaar oud bedrijf, AI inzet om de landbouw te transformeren. Met behulp van geavanceerde technologieën zoals See & Spray, dat gebruik maakt van camera’s en machine learning, kunnen boeren nu gerichter en efficiënter werken. Dat leidt tot minder chemicaliëngebruik en hogere opbrengsten. AI wordt gebruikt om op basis van real-time data advies te geven. Het gebruik van AI is niet alleen gericht op het verhogen van de productiviteit, maar moet ook bijdragen aan duurzaamheid (al is daarvoor natuurlijk veel meer nodig).
Mijn bronnen over (generatieve) artificiële intelligentie
Deze pagina bevat al mijn bijdragen over (generatieve) artificiële intelligentie, zoals ChatGPT.
This content is published under the Attribution 3.0 Unported license.
Geef een reactie