Waar ik me de afgelopen week over verwonderd heb, als het gaat om generatieve AI (deel 9)

De afgelopen week organiseerde Google de I/O 2025 en Microsoft Build 2025. Met als gevolg weer veel nieuws over (generatieve) AI. Uiteraard konden andere AI-bedrijven niet echter blijven. Nog meer nieuws waar ik een aantal keer van op keek. In deze blogpost vind je weer een selectie, plus twee berichten over energieverbruik en tijdswinst waar ik van op keek.

AI ontwikkelingMicrosoft’s visie op agentic AI plus een praktijkvoorbeeld

Microsoft heeft tijdens Build 2025 zijn visie voor een “open agentic web” geïntroduceerd, met een hele reeks nieuwe AI-tools en upgrades. Dankzij vooruitgang in redenering en geheugen zijn AI-modellen nu krachtiger en efficiënter bij het oplossen van problemen. Microsoft zet in op een ‘open agentisch web’, waarin AI-agents beslissingen nemen en taken uitvoeren namens gebruikers of organisaties. Al 15 miljoen ontwikkelaars gebruiken GitHub Copilot, terwijl meer dan 230.000 organisaties Copilot Studio inzetten voor het bouwen van AI-agents. Daarnaast ondersteunt Microsoft het Model Context Protocol (MCP) en lanceerde het bedrijf NLWeb, dat een vergelijkbare rol kan spelen als HTML maar dan voor het agentische web. Deze ontwikkelingen moeten organisaties helpen om AI-agents veilig te bouwen en in te zetten voor hogere productiviteit.
Ander opvallend nieuws van Microsoft tijdens de Build 2025: de bekendmaking van Discovery. Dit is een nieuw bedrijfsplatform om wetenschappelijk onderzoek te versnellen door wetenschappers in staat te stellen samen te werken met gespecialiseerde AI-agenten die gegevens kraken en experimenten uitvoeren, waardoor de bevindingen worden versneld van jaren naar uren. Microsoft introduceerde diverse nieuwe functies, waaronder Windows AI Foundry, Azure AI Foundry Models, en multi-agent orchestratie voor wetenschappelijk onderzoek.
De Corporate Vice President van Microsoft Copilot Studio heeft in deze bijdrage alle belangrijke aankondigingen, die zij tijdens het Microsoft Build evenement hebben gedaan, op een rij gezet.

Google Meet lanceert AI-vertaling die stemgeluid behoudt

Dinsdagavond werd ik geconfronteerd met diverse nieuwsberichten over ontwikkelingen bij Google. Zij hadden, net als Microsoft, ook een conferentie voor ontwikkelaars. Google heeft tijdens I/O 2025 onder meer een nieuwe Gemini-gestuurde vertaalfunctie voor Google Meet geïntroduceerd. Deze AI-functie kan real-time vertalen wat een gebruiker zegt naar de taal van de gesprekspartner, terwijl het stemgeluid, toon en expressie behouden blijven. In een demonstratie toonde Google hoe een Engelstalige gebruiker communiceert met een Spaanstalige collega, waarbij Meet automatisch het gesprokene overzet naar de andere taal met behoud van alle stemkenmerken. Momenteel werkt de vertaling alleen tussen Engels en Spaans, maar ondersteuning voor Italiaans, Duits en Portugees volgt binnen enkele weken. De functie is nu beschikbaar in bèta voor abonnees van Google’s AI Pro plan of het nieuw aangekondigde AI Ultra abonnement dat €249,99 per maand kost. Microsoft Teams introduceerde eerder dit jaar een vergelijkbare AI-vertaalfunctie.

Google’s Project Astra: AI-assistent die proactief taken uitvoert

Google heeft tijdens de I/O ontwikkelaarsconferentie nieuwe functies voor Project Astra onthuld die richting gevend kunnen zijn voor de toekomst van AI-assistenten. Project Astra kan nu taken voor gebruikers uitvoeren zonder dat deze erom hoeven te vragen. Greg Wayne, onderzoeksdirecteur bij Google DeepMind, beschrijft Astra volgens The Verge als “een soort conceptauto van een universele AI-assistent”. De opvallendste nieuwe functie is proactiviteit: Astra kan continu observeren en uit zichzelf reageren op gebeurtenissen in de omgeving. Dit betekent een belangrijke verandering in hoe AI-assistenten werken – in plaats van dat gebruikers hun telefoon op iets richten en een vraag stellen, kan Astra voortdurend meekijken, meeluisteren en op het juiste moment ingrijpen. Succesvolle functies uit Astra worden uiteindelijk geïntegreerd in Gemini en andere apps.

Flow: Google’s nieuwe tool voor het maken van AI-video’s

Google heeft tijdens de I/O ontwikkelaarsconferentie ook Flow gelanceerd, een nieuwe tool specifiek ontworpen voor het maken van AI-gegenereerde video’s. Flow werkt als een soort filmbewerkingsapp voor AI-video’s en stelt gebruikers in staat om acht seconden durende clips te maken via tekst-naar-video-prompts of door bestaande afbeeldingen te gebruiken als ‘ingrediënten’. Met de scenebuilder-functie kunnen meerdere clips aan elkaar worden gekoppeld. Flow schijnt vooral bedoeld te zijn om filmmakers te helpen hun ideeën snel te visualiseren. Naast Flow introduceert Google ook Veo 3, een verbeterd videomodel dat video en geluid samen kan genereren, inclusief dialoog, en beter omgaat met langere prompts. Eerlijk gezegd was ik al onder de indruk van Veo2. Flow is vanaf vandaag beschikbaar in de VS voor abonnees van Google AI Pro (met 100 generaties per maand) en Google AI Ultra (met hogere gebruikslimieten en vroege toegang tot Veo 3).

Google’s NotebookLM nu ook voor mobiel

Het is niet de generatieve AI-app die ik het meest gebruik, maar eigenlijk wel de toiepassing waar ik het meest onder de indruk van ben: Google Notebook LM. Google heeft de mobiele app van NotebookLM uitgebracht voor Android, iOS en iPadOS, zo meldt Biao Wang van Google Labs volgens The Verge. Schijnbaar een veelgehoorde wens van gebruikers. De app biedt dezelfde functies als de desktopversie, waaronder het uploaden van informatiebronnen die door AI worden samengevat. Je kunt met deze app ook de befaamde AI-gegenereerde ‘Audio Overviews’ maken, vergelijkbaar met podcasts. Deze audio-samenvattingen kunnen op de achtergrond worden beluisterd, zelfs offline.
 Deze mobiele app biedt daarmee m.i. ook nieuwe mogelijkheden voor leren onderweg. Deze applicatie kan waardevolle ondersteuning bieden bij het verwerken van grote hoeveelheden informatie en het creëren van toegankelijke leerinhoud voor verschillende doelgroepen.

Google introduceert SynthID Detector om AI-content te herkennen

Dit vind ik een heel bijzondere. Google heeft een nieuwe tool aangekondigd die professionals helpt bij het identificeren van content die met AI is gemaakt. De SynthID Detector werkt als een verificatieportaal dat specifiek zoekt naar digitale watermerken in tekst, afbeeldingen, audio en video’s die zijn gegenereerd met Google’s AI-modellen zoals Gemini, Imagen en Veo. Wanneer gebruikers content uploaden, scant de tool automatisch naar deze onzichtbare watermerken en toont precies welke delen waarschijnlijk door AI zijn gemaakt. Voor audio wijst het tool bijvoorbeeld specifieke segmenten aan, terwijl het bij afbeeldingen bepaalde gebieden markeert. De tool bevindt zich momenteel in een testfase met een beperkte groep gebruikers. Daarna wil Google toegang geleidelijk uit te breiden via een wachtlijst. Deze ontwikkeling kan relevant zijn voor leren, opleiden en onderwijs om te scannen voor lerenden en docenten gebruik hebben gemaakt van AI-tools als dat bijvoorbeeld niet de bedoeling is. Maar wat als geen onzichtbare digitale watermerken worden gebruikt? Zal deze tool geen ‘false positives‘ genereren? Tot nu toe blijken deze tools erg onbetrouwbaar te zijn. Zal Google er wel in slagen om een betrouwbare detectietool te maken, ook relevant voor onze sector? We gaan het mee maken. Of niet, natuurlijk.

AI-systeem doet eerste zelfstandige wetenschappelijke ontdekking

Een tijdje geleden besteedde ik aandacht aan Futurehouse. Deze week maakte dit bedrijf bekend dat men een doorbraak heeft bereikt met Robin, een geïntegreerd AI-systeem dat wetenschappelijke ontdekkingen kan automatiseren. Robin combineert meerdere bestaande AI-agenten (Crow, Falcon, Finch) om het volledige wetenschappelijke proces te doorlopen. In zijn eerste toepassing heeft Robin ripasudil, een medicijn dat al gebruikt wordt bij glaucoom, geïdentificeerd als mogelijke behandeling voor droge leeftijdsgebonden maculadegeneratie. Dit is een belangrijke oorzaak van blindheid. Het systeem genereerde zelfstandig de hypothese, stelde experimenten voor en analyseerde de resultaten, terwijl mensen alleen de fysieke experimenten uitvoerden. Het volledige proces duurde slechts 2,5 maanden. FutureHouse maakt Robin eind mei beschikbaar als open-source en verwacht dat het systeem ook in andere wetenschappelijke domeinen kan worden toegepast. De resultaten zullen ongetwijfeld door mensen worden gecheckt. Maar stel je toch eens voor dat de conclusies van dit onderzoek kloppen en generaliseerbaar zijn….

OpenAI neemt designstudio van Apple-ontwerper over voor 6,5 miljard dollar

Dit nieuws was donderdagavond best een ‘dingetje’. OpenAI heeft de overname aangekondigd van io, een AI-startup op het gebied van apparaten die werd opgericht door voormalig Apple-ontwerper Jony Ive. De transactie ter waarde van 6,5 miljard dollar in aandelen markeert een belangrijke stap in de ontwikkeling van AI-gestuurde apparaten. Ive, bekend van iconische Apple-producten zoals de iPhone en iPad, startte io twee jaar geleden na een samenwerking met OpenAI-CEO Sam Altman. Het bedrijf richt zich op het ontwikkelen van een nieuwe generatie hardware die AI-technologie integreert in gebruiksvriendelijke producten. Het io-team, bestaande uit ervaren hardware- en software-engineers, zal nu samenwerken met OpenAI’s onderzoeks- en ontwikkelingsteams in San Francisco. Deze fusie brengt OpenAI’s AI-expertise samen met Ive’s designervaring. Dit kan leiden tot innovatieve producten die de manier waarop we met AI-technologie omgaan kunnen veranderen. Als het gaat om leren, opleiden en onderwijs betekent dit dat de interface tussen gebruiker en AI-technologie waarschijnlijk intuïtiever wordt. De vraag is natuurlijk of je met behulp van deze apparaten ook functies uit kunt voeren die je nu met de smartphone of tablet kunt toepassen. Want nog een apparaat erbij….En kun je ook andere toepassingen gebruiken, bijvoorbeeld van Google?

OpenAI lanceert Codex, een AI-assistent voor softwareontwikkeling

Ik ben in staat om basis html te programmeren, maar heb verder niet echt expertise op het gebied van programmeren. Dit bericht van OpenAI illustreert m.i. echter hoe dit vakgebied aan het veranderen is.
OpenAI heeft namelijk Codex geïntroduceerd, een cloud-gebaseerde AI-assistent die softwareontwikkelaars helpt met diverse programmeertaken. Deze nieuwe tool is gebouwd op basis van het codex-1 model (een geoptimaliseerde versie van OpenAI o3), en kan parallel aan meerdere opdrachten werken. Ontwikkelaars kunnen Codex inzetten voor het schrijven van code, het beantwoorden van vragen over codebases, het oplossen van bugs en het voorstellen van wijzigingen. Elke taak draait in een eigen geïsoleerde omgeving die vooraf is geladen met de repository van de gebruiker. Volgens OpenAI kan Codex repetitieve, goed afgebakende taken overnemen die anders de focus zouden verstoren. Het systeem is nu beschikbaar voor ChatGPT Pro, Enterprise en Team gebruikers, met ondersteuning voor Plus en Edu gebruikers in de nabije toekomst. Om de veiligheid te waarborgen, werkt Codex volledig binnen een beveiligde container en kan het geen externe websites of API’s benaderen.

Claude 4 beschikbaar

Anthropic kan bij al dit ‘geweld’ natuurlijk niet achterblijven. Afgelopen donderdagavond mailen zij aan hun klanten de volgende verbeteringen in de nieuwe versie:

  • Coderen is nog beter geworden. Claude is volgens Anthropic nu ’s werelds beste AI-codeerassistent (‘Wij van WC-eend’).
  • Krijg diepere inzichten. Vraag Claude om stap voor stap door complexe problemen ‘heen te denken’. Daardoor krijgen Claude en de gebruiker een beter begrip van het probleem.
  • Word samen creatief. Of je nu schrijft of brainstormt, volgens Anthropic voelt het met Claude alsof je samenwerkt met een creatieve vriend.
  • Claude Sonnet 4 & Claude Opus 4: Gebruik Sonnet 4 voor snelle, intelligente antwoorden en Opus 4 voor de meest veeleisende taken.

AI-innovaties veranderen advertentiestrategieën bij streamingdiensten

Persoonlijk zit ik hier niet op te wachten, al kon je er natuurlijk op wachten. YouTube en Netflix implementeren nieuwe door AI aangestuurde advertentieformaten die de kijkervaring en merkintegratie transformeren. YouTube heeft “Peak Points” geïntroduceerd, een systeem dat Gemini AI gebruikt om video’s te analyseren en advertenties strategisch te plaatsen na emotioneel geladen momenten in content. Tegelijkertijd ontwikkelt Netflix AI-gegenereerde advertenties die visueel harmoniëren met hun programma’s door producten te plaatsen tegen achtergronden geïnspireerd door de shows.
Deze ontwikkelingen illustreren hoe AI een steeds belangrijkere rol speelt bij het optimaliseren en personaliseren van advertentie-inhoud bij twee van de grootste streamingdiensten ter wereld. In marketingtermen heet het dan dan de verwachting is dat AI-systemen in de toekomst advertentie-inhoud direct kunnen genereren, afgestemd op de kijker en geplaatst voor maximaal effect. In mijn woorden: streamingdiensten proberen jou op steeds slimmere manieren te verleiden om producten van adverteerders te verkopen.

Sociale normen ontstaan spontaan in grote taalmodellen

Een recente studie gepubliceerd in Science Advances laat zien dat grote taalmodellen (LLM’s) spontaan sociale normen kunnen ontwikkelen zonder expliciete programmering. Onderzoekers van de City University of London en de IT University of Copenhagen ontdekten dat wanneer AI-agenten met elkaar communiceren, ze uit zichzelf gedeelde conventies vormen. Het onderzoek laat ook zien hoe collectieve vooroordelen kunnen ontstaan, zelfs wanneer individuele agenten geen vooroordelen hebben. Bovendien blijkt dat een kleine, vastberaden minderheid van AI-agenten deze normen kan veranderen zodra ze een ‘kritische massa’ bereiken. Deze bevindingen geven inzicht in hoe AI-systemen zich in groepen gedragen en welke uitdagingen dit kan opleveren voor het ontwerpen van AI-systemen die met menselijke waarden en maatschappelijke doelen in lijn moeten blijven.

ChatGPT voor lesvoorbereiding: 31% tijdwinst zonder kwaliteitsverlies

Pedro de Bruyckere besteedde deze week aandacht aan een nieuwe studie uit het Verenigd Koninkrijk waaruit blijkt dat docenten die ChatGPT gebruiken voor lesvoorbereiding gemiddeld 25 minuten per week besparen. Dat is 31% minder tijd dan de controlegroep die geen AI-tools mocht gebruiken. Het onderzoek, uitgevoerd door de Education Endowment Foundation onder 259 docenten in het secundair onderwijs, laat zien dat deze tijdwinst wordt behaald zonder dat de kwaliteit van de lesmaterialen eronder lijdt. Een onafhankelijk panel van experts beoordeelde de lesvoorbereidingen blind en zag geen verschil. Opvallend is dat docenten de tool niet voor complete lesplannen gebruikten, maar voor specifieke taken zoals het genereren van oefenvragen of het bedenken van werkvormen. De bespaarde tijd werd veelal ingezet voor andere lesgerelateerde taken of om werkdruk te verlagen. Pedro concludeert: “Misschien hoeven we de vraag niet te stellen of ChatGPT het werk van leerkrachten overneemt, maar eerder hoe het dat werk werkbaarder kan maken.”

Wat AI echt kost aan energie

Marco Derksen schreef deze week een blogpost over een MIT-onderzoek naar het energiegebruik van AI. De aandacht gaat vaak uit naar de eenmalige energiekosten van het trainen van grote taalmodellen (zoals 50 gigawattuur voor GPT-4) Het dagelijkse gebruik door eindgebruikers blijkt een veel grotere impact te hebben, ook afhankelijk van de toepassing. Een gemiddelde AI-gebruiker die dagelijks vijftien vragen stelt, tien beelden genereert en drie korte video’s maakt, verbruikt ongeveer 2,9 kilowattuur per dag – vergelijkbaar met 100 kilometer e-bike rijden of 10 kilometer in een elektrische auto. Op mondiale schaal verwerkt ChatGPT al een miljard berichten per dag, goed voor meer dan 100 gigawattuur op jaarbasis. Veel van de datacentra blijken overigens vooral gebruik te maken van fossiele energie. In de VS alleen wordt nu al tussen 53 en 76 terawattuur toegeschreven aan AI-systemen. Dit zou in 2028 kunnen stijgen tot 326 terawattuur. De onderzoekers pleiten daarom voor meer aandacht voor duurzaamheid en transparantie in de AI-sector, naast de technologische vooruitgang zelf. De NOS besteedde donderdag ook aandacht aan het energieverbruik. AI verbruikt nu al 11 tot 20 procent van het wereldwijde stroomverbruik van datacenters. Dat kan makkelijk de helft worden.

Mijn bronnen over (generatieve) artificiële intelligentie

Deze pagina bevat al mijn bijdragen over (generatieve) artificiële intelligentie, zoals ChatGPT.

This content is published under the Attribution 3.0 Unported license.

Delen

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *