Categories
AI technologie

OpenAI en Google struikelen de toekomst tegemoet

OpenAI en Google vechten over heerschappij in AI, zonder oog voor kwaliteit.
Beeld gemaakt met Midjourney.

Toen OpenAI anderhalf jaar geleden ChatGPT introduceerde, was de hele wereld verbaasd over de mogelijkheden van generatieve AI. De doorsnee Internetgebruiker beschikte opeens over een gratis instrument om allerlei taken beter en sneller te kunnen uitvoeren. Onder leiding van CEO Sam Altman gedraagt OpenAI zich inmiddels als een doorgeslagen puber en Google reageert als een warrige vader die het allemaal niet meer kan bijbenen.

OpenAI stapelt schandaal op succes

OpenAI heeft een unieke formule gevonden om schandalen en successen aaneen te rijgen. De formule is simpel en doeltreffend: na het zoveelste schandaal, zoals nu het lek rond de schandelijke personeelscontracten waarin het aandelenbehoud van personeelsleden blijkt te zijn gekoppeld aan een extreme zwijgplicht, lekt er positief nieuws uit.

De aandelen van een medewerker van OpenAI die de omerta doorbrak. Beeld gemaakt met Midjourney.

Afgelopen week was dat een mogelijke overeenkomst van OpenAI met Apple, waarbij de nieuwe generaties iPhones en iOS software zouden worden uitgerust met ChatGPT software van OpenAI. Het altijd zwijgzame Apple zal zich enorm irriteren aan het uitgelekte nieuwtje. Microsoft CEO Satya Nadella was er evenmin blij mee, waarschijnlijk ook omdat hij het nieuws via de media moest vernemen.

OpenAI CEO Sam Altman maakt bij elk schandaal dezelfde beweging, die het best is te omschrijven als een Vaticaanse pirouette; hij zegt dat het echt heel erg is, tjongejongejonge, maar dat hij zelf van niets wist en dat OpenAI voortaan veel beter zijn best zal doen. Beloofd, hand op het hart. Het probleem is dat je nooit ziet wat die andere hand doet.

Het is hetzelfde verweer als toen een paar weken geleden geleden bij OpenAI de leiding opstapte van het team dat verantwoordelijk was voor de veiligheid. De lijst schandalen van OpenAI is inmiddels zo lang, dat een beursgenoteerd bedrijf allang afscheid had genomen van de CEO.

Mediaverhalen zijn niet zo relevant, tenzij ze als bron meerdere collega’s en ex-collega’s hebben van de persoon waarover wordt bericht. Het verhaal van voormalig board member Helen Toner over de reden waarom Altman in november mede door Toner werd ontslagen bij OpenAI (voordat hij werd teruggehaald), lijkt in eerste instantie een wraakactie. Maar met name haar relaas over de gebrekkige veiligheid is verontrustend:

“Bij meerdere gelegenheden gaf hij onnauwkeurige informatie over het kleine aantal formele veiligheidsprocessen dat het bedrijf had ingevoerd, wat betekende dat het vrijwel onmogelijk was om te weten hoe goed die veiligheidsprocessen functioneerden of wat er eventueel aangepast moest worden.”

Altman denkt het probleem van gebrekkige veiligheid bij OpenAI op te lossen door zelf de leiding te nemen over het veiligheidsteam. Dat is alsof je de vos manager maakt van het kippenhok.

Hoe meer wordt gespit in het verleden van Altman, zowel over zijn tijd bij Y Combinator als bij zijn eigen startup Loopt, hoe meer hij, laten we het chique houden, gladder lijkt dan een aal in een emmer snot die wordt vastgehouden onder een douche van olijfolie door een met vaseline ingesmeerde octopus. Met alle respect.

De vraag is hoe lang ‘s Satya Nadella, CEO van ‘s werelds meest waardevolle bedrijf -dat is Microsoft nog zeker tot Nvidia de volgende kwartaalcijfers bekend maakt- de strapatsen van Altman zal tolereren. Waar Mark Zuckerberg bij Meta en eerder al Larry Page en Sergej Brin bij Google via een uitgekiende structuur ervoor hadden gezorgd dat ze de meerderheid van de commissarissen konden benoemen, waarmee ze altijd de bedrijfsleiding behielden, heeft Altman te maken met een relatief onafhankelijk bestuur en in Microsoft één grootaandeelhouder met 49% van de aandelen.

OpenAI een B-Corp?

OpenAI heeft een ongebruikelijke structuur, met een winstgericht bedrijf dat verantwoording moet afleggen aan een non-profitorganisatie. Het uitstekende The Information beweert dat Altman en zijn bondgenoten proberen OpenAI om te vormen tot een maatschappelijke onderneming, bekend als een B-Corp.

B-Corps stellen bedrijven in staat om aanvullende doelen te hebben naast het belang van aandeelhouders, waardoor ze beschermd zijn tegen bepaalde soorten aandeelhoudersrechtszaken als ze handelen om andere redenen dan winst. Een B-Corp zou een middenweg kunnen zijn tussen de huidige structuur van OpenAI en die van een volledig winstgericht bedrijf. De omvorming van OpenAI naar een B-Corp zou ook een manier kunnen zijn waarop Altman de bestuursstructuur van OpenAI in zijn voordeel kan aanpassen.

Nieuwe ChatGPT een les in AI-hype

Toen OpenAI in mei de nieuwste versie van zijn immens populaire ChatGPT-chatbot presenteerde, GPT-4o, had het een nieuwe stem met schijnbaar menselijke emoties. De online demonstratie toonde ook een bot die een kind bijles gaf. Eerder omschreef ik deze gimmicks als irrelevant, als siervelgen onder een Leopard-tank.

Intussen is GPT-4o beschikbaar voor iederen, maar vrijwel zonder alle toeters en bellen, tot grote ergernis van de New York Times die doorziet dat OpenAI de ouderwetse vaporware tactieken hanteert om Google de loef af te steken.

Het probleem is dat de rivaliteit tussen OpenAI en Google inmiddels zulke vormen heeft aangenomen, dat zelfs wordt getwijfeld aan het verhaal van OpenAI dat netwerken uit Rusland, China, Iran en Israël probeerden publieke opinies te manipuleren met AI-gegenereerde inhoud.

OpenAI stopt de Russen?

OpenAI meldde donderdag dat het vijf geheime beïnvloedingsoperaties heeft stopgezet die zijn AI-modellen gebruikten voor misleidende activiteiten. Deze operaties, die OpenAI tussen 2023 en 2024 zou hebben stopgezet, waren afkomstig uit Rusland, China, Iran en Israël en probeerden de publieke opinie te manipuleren en politieke uitkomsten te beïnvloeden zonder hun ware identiteit of bedoelingen te onthullen, aldus OpenAI:

Het verslag van OpenAI komt te midden van zorgen over de impact van generatieve AI op meerdere verkiezingen wereldwijd die dit jaar zijn gepland, waaronder in de VS. In zijn bevindingen onthulde OpenAI hoe netwerken van mensen zich bezig hielden met beïnvloedingsoperaties en gebruik maakten van generatieve AI om teksten en afbeeldingen op veel grotere schaal te genereren dan voorheen, en nep-engagement door AI te gebruiken om nep-reacties op sociale media berichten te genereren.

Kiezers in India overspoeld door miljoenen deepfakes

In een jaar waarin bijna de helft van de wereldbevolking naar de stembus gaat, zijn dit uiteraard zeer verontrustende berichten die exact het soort veiligheid betreffen waar critici binnen OpenAI zich druk om maakten.

In India worden kiezers inmiddels overspoeld door miljoenen deepfakes, tot genoegen van de politici die ze maken. Die zijn blij met deze nieuwe hulpmiddelen, maar veel kiezers weten niet dat ze naar een door een computer gegenereerde persoon kijken. Met de Britse en Amerikaanse verkiezingen in het vooruitzicht, zal uiterst kritisch moeten worden gekeken naar de manier waarop AI-bedrijven hun technologie laten gebruiken.

Lek bij Google Search

Juist bezien in het licht van de grote maatschappelijke verantwoordelijkheid, was het op zijn zachtst gezegd onhandig dat Google een set van 2.500 interne documenten liet stelen, die vragen oproept over eerdere verklaringen van het bedrijf.

H Google Search-algoritme is niet gelekt en SEO-experts hebben niet opeens alle geheimen ontmaskert over hoe Google werkt. Maar de informatie die deze week wel is gelekt, is nog steeds enorm. Het biedt een ongekende blik in de interne werking van Google die normaal gesproken nauwlettend bewaakt wordt.

Misschien de meest opmerkelijke onthulling uit de 2.500 documenten is dat het lijkt alsof Google-vertegenwoordigers het publiek in het verleden hebben misleid bij de uitleg hoe Google’s zoekmachine informatie beoordeelt en rangschikt. Dit biedt weinig vertrouwen in de wijze waarop Google zal omgaan met kritische vragen over hoe de AI-toepassingen van het bedrijf worden ingezet.

Google’s AI geeft soms valse, misleidende en gevaarlijke antwoorden

Het lek bij Google was afgelopen week nog niet eens het grootste probleem van de zoekgigant. Dat bleek de gebrekkige werking van antwoorden die mede op basis van AI door Google worden gegeven. Van recepten met lijm op pizza tot aanbevelingen voor “knipperlichtvloeistof,” de kwaliteit van Google’s AI is nog verre van goed. Het roept de vraag op waarom Google dit soort technologie, die duidelijk nog in het beginstadium verkeert, loslaat op het grote publiek.

Falen van Google’s AI-overzicht bleken te ontstaan wanneer het systeem niet beseft dat een geciteerde bron een grap probeerde te maken. Een AI-antwoord dat suggereerde “1/8 kopje niet-giftige lijm” te gebruiken om te voorkomen dat kaas van pizza glijdt, kan worden herleid naar iemand die ergens online een discussie probeerde te trollen.

Een reactie die “knipperlichtvloeistof” aanbeveelt voor een geluidloze richtingaanwijzer, kan op dezelfde manier worden herleid naar een trol op een dubieus adviesforum, die door Google’s AI-overzicht blijkbaar als een betrouwbare bron wordt beschouwd.

Zoals ik vorige week zelf ervaarde toen ik probeerde gemiddelde rendementen te laten bereken, blijken cijfers een uitdaging voor Google’s AI-technologie. Bij vragen over de relatieve waarde van dollars zat Google er tientallen procenten naast, notabene volgens de inflatiecalculator die Google zelf citeert. In een ander voorbeeld zei de AI van Google dat er 738.523 dagen zijn tussen oktober 2024 en januari 2025.

Gebruikers werd verteld veel urine te drinken om een niersteen door te spoelen en dat Barack Obama een moslim-president was. Een ander antwoord van Google zei dat John F. Kennedy afstudeerde aan de University van Wisconsin in zes verschillende jaren, waarvan drie na zijn dood.

Volgens Google heeft het inmiddels “meer dan een dozijn technische verbeteringen” aangebracht in zijn AI-systemen na uitingen van onjuiste informatie.

Luchtfietserij van OpenAI leidt tot geblunder bij Google

De techindustrie zit midden in een AI-revolutie, met zowel start-ups als grote techgiganten die proberen geld te verdienen met AI. Veel diensten worden aangekondigd of gelanceerd voordat ze goed genoeg zijn voor het grote publiek, terwijl bedrijven als OpenAI en Google strijden om zichzelf als toonaangevend te presenteren.

Het excuusbericht van Liz Reid, verantwoordelijk voor het zoekproduct van Google, leest als een vreemde combinatie van openbare boetedoening, ongeremde borstklopperij en onbegrip voor de klant. Zo van: ‘Ja sorry, we hebben een foutje gemaakt, maar weet je wel hoe moeilijk het is wat we doen? Stel dan ook geen domme vragen!’

Ars Technica komt zoals vaker met een heldere conclusie:

“Zelfs als je enkele fouten toestaat in experimentele software die wordt uitgerold naar miljoenen mensen, is er een probleem met de impliciete autoriteit in de foutieve AI-overzichtsresultaten. Het feit blijft dat de technologie niet inherent feitelijke nauwkeurigheid biedt, maar de onjuistheid van websites weerspiegelt die in Google’s paginaranking worden gevonden met een autoriteit die mensen kan misleiden. Je zou denken dat technologiebedrijven ernaar zouden streven klantvertrouwen op te bouwen, maar nu bouwen ze AI-tools en vertellen ons de resultaten niet te vertrouwen omdat ze mogelijk fout zijn. Misschien is dat omdat wij eigenlijk niet de klanten zijn, maar het product.”

By Michiel

I try to develop solutions that are good for the bottom-line, the community and the planet at Blue City Solutions and Tracer.