Categories
AI crypto technologie

OpenAI opent de aanval op Google, vergeet veiligheid?

Geoffrey Hinton: “Kans op bedreiging op uitstervingsniveau: 50-50”
Beeld gemaakt met Midjourney.

“We wisten dat de wereld niet hetzelfde zou zijn. Een paar mensen lachten, een paar mensen huilden, de meeste mensen waren stil.”

Aan deze uitspraak van J. Robert Oppenheimer, over de reacties op de eerste test van de atoombom, moest ik deze week denken toen OpenAI de wereld verbaasde met de introductie van GPt-4o en een paar dagen later de twee topmensen bij het bedrijf op het gebied van veiligheid ontslag namen.

Het vertrek bij OpenAI van Ilya Sutskever en Jan Leike, de twee sleutelfiguren op het gebied van AI-veiligheid, roept de vraag op of we over enkele decennia op deze week terug zullen kijken en ons afvragen hoe het mogelijk was dat, ondanks de duidelijke tekenen van de potentiële gevaren van geavanceerde AI, de wereld meer onder de indruk was van het vermogen van GPT-4o om een slaapliedje te zingen?

GPT-4o vooral aanval op Google

Het meest opvallend aan GPT-4o is de manier waarop het combinaties van tekst, audio en afbeeldingen kan begrijpen en zelf genereren. Het reageert op audio even snel als een mens, de prestaties voor tekst in niet-Engelse talen zijn aanzienlijk verbeterd en het is nu de helft goedkoper om te gebruiken via de API.

De vernieuwing zit vooral in deze manier waarop mensen kunnen omgaan met GPT-4o, zonder dat de resultaten inhoudelijk kwalitatief sterk zijn verbeterd. Het product is nog half af en waar de wereld maandag naar keek was grotendeels een demonstratie die nog niet klaar is voor grootschalig gebruik, maar de enorme potentie was overduidelijk.

Siervelgen op een Leopard-tank

Het ligt niet in de lijn der verwachting dat de wereld binnenkort vergaat omdat GPT-4o in allerlei talen slaapliedjes kan zingen; maar wat elk weldenkend mens wel zorgen moet baren, is dat OpenAI deze introductie een dag deed voor Google I/O, de Libelle Zomerweek van Google, om aan de wereld te tonen dat de aanval nu frontaal is geopend.

Google staat onder grote druk, voor het eerst in het bestaan van de zoekgigant. Het heeft nauwelijks een financiële of emotionele relatie met het gros van zijn gebruikers, die met een paar muisklikken net zo snel naar OpenAI’s GPT’s kunnen overstappen als ooit Altavista overkwam toen Google vele malen beter bleek.

Het gevaar dat de concurrentiestrijd van OpenAI tegen Google met zich meedraagt, is dat versneld allerlei toepassingen op de markt komen waarvan de gevolgen nog niet goed zijn te overzien. Bij GPT-4o valt het mee, maar het lijkt er steeds meer op alsof OpenAI ook voortgang maakt op het gebied van AGI, ofwel kunstmatige algemene intelligentie, een vorm van AI die even goed of beter presteert dan mensen bij de meeste taken. AGI bestaat nog niet, maar het creëren ervan is een deel van de missie van OpenAI.

Bij de doorbraak van sociale media is gebleken dat met name de invloed op de geestelijke gesteldheid van jongeren en destabilisering van de westerse samenleving door grootschalig gebruik van gevaarlijke bots en click-farms, volledig werd onderschat. Slaapliedjes van GPT-4o kunnen net zo irrelevant blijken als siervelgen op een Leopard-tank. Voor wie denkt dat ik overdrijf, raad ik aan The Social Dilemma te bekijken op Netflix.

Google heeft inmiddels een volledige reorganisatie ondergaan in antwoord op de dreiging van OpenAI. Aanvoerder van het AI-team van Google is Demis Hassabis, ooit mede-oprichter van DeepMind, dat hij in 2014 aan Google verkocht. Aan Hassabis de taak om Google te leiden naar AGI.

Zo jutten Google en OpenAI elkaar op tot… tot wat, eigenlijk? Als deepfakes van tien jaar geleden overleden mensen al werden ingezet tijdens verkiezingen in India, wat kunnen we dan verwachten rond de Amerikaanse presidentsverkiezingen?

Ilya Sutskever reden breuk tussen Musk en Page

In november schreef ik uitgebreid over de waarschuwingen die Sutskever en Leike, de experts die nu bij OpenAI zijn opgestapt, in het verleden herhaaldelijk hebben geuit. Om een indruk te geven hoe hoog de absolute top van de technologie-wereld Ilya Sutskever inschat: Elon Musk en mede-oprichter van Google Larry Page hebben hun vriendschap verbroken over Sutskever.

Musk zei hierover in de podcast van Lex Fridman: “Het was vooral Demis Hassabis aan de ene kant en ik aan de andere kant, beiden probeerden we Ilya te rekruteren, en Ilya twijfelde. Uiteindelijk stemde hij ermee in om bij OpenAI te komen. Dat was een van de moeilijkste rekruteringsslagen die ik ooit heb meegemaakt, maar dat was echt de sleutel tot het succes van OpenAI.”

Musk vertelde ook hoe hij thuis bij Larry Page, mede-oprichter van Google en toenmalig CEO, praatte over AI-veiligheid: “Larry gaf niets om AI-veiligheid, of in ieder geval deed hij dat toen niet. Op een gegeven moment noemde hij me een speciesist omdat ik pro-mens was. En ik zei: ‘Wel, in welk team zit jij dan, Larry?'”

Het baarde Musk zorgen dat Google in die tijd DeepMind al had overgenomen en “waarschijnlijk twee derde van alle AI-onderzoekers in de wereld had. Ze hadden in feite oneindig veel geld en rekencapaciteit, en de man aan de leiding, Larry Page, gaf niets om veiligheid.”

Toen Fridman suggereerde dat Musk en Page misschien weer vrienden zouden kunnen worden, antwoordde Musk: “Ik zou graag weer vrienden willen zijn met Larry. Echt, het breken van de vriendschap was vanwege OpenAI, en specifiek denk ik dat het belangrijkste moment het recruteren van Ilya Sutskever was.” Musk noemde Sutskever ook nog “een goed mens—slim, goed hart.”

Jan Leike was openhartig op X.

“We zijn al veel te laat”

Die omschrijvingen lees je vaker over Sutskever, maar zelden over Sam Altman. Het is interessant om iemand te beoordelen op diens daden, niet op gelikte soundbites of toffe tweets. Kijken we iets verder naar Altman’s werk, dan ontstaat er een heel ander beeld dan van Sutskever. Met name Worldcoin, waarin mensen wordt opgeroepen hun oogbol in te leveren voor een paar muntjes, is ronduit zorgwekkend, maar Altman gelooft er heilig in.

Ik probeerde meer te leren over het werk van de ook bij OpenAI opgestapte Duitser Jan Leike, die minder bekend is dan Sutskever, maar de Substack van Leike is een absolute aanrader voor wie iets verder wil kijken dan een persbericht of een tweetje, evenals zijn persoonlijke website met links naar zijn publicaties.

Leike nam op X geen blad voor de mond bij zijn vertrek, hoewel het hardnekkige gerucht gaat dat arbeidscontracten bij OpenAI het mogelijk maken, of mogelijk maakten, om alle OpenAI-aandelen af te pakken als een werknemer na vertrek iets over OpenAI naar buiten brengt. (Maar na je dood mag je doen wat je wil.)

Ik heb hier voor de leesbaarheid de tweets van Leike over zijn vertrek samengevat, de dik gedrukte stukken zijn van mijn hand:

“Gisteren was mijn laatste dag als hoofd van alignment, superalignment lead en executive bij OpenAI. Het verlaten van deze baan is een van de moeilijkste dingen die ik ooit heb gedaan, omdat we dringend moeten uitvinden hoe we AI-systemen die veel slimmer zijn dan wij kunnen sturen en controleren.

Ik ben bij OpenAI gekomen omdat ik dacht dat dit de beste plek ter wereld zou zijn om dit onderzoek te doen. Echter, ik ben het al geruime tijd oneens met het leiderschap van OpenAI over de kernprioriteiten van het bedrijf, totdat we uiteindelijk een breekpunt bereikten.

Ik geloof dat veel meer van onze bandbreedte besteed zou moeten worden aan het voorbereiden op de volgende generaties van modellen, aan veiligheid, monitoring, paraatheid, veiligheid, adversarial robuustheid, (super)alignment, vertrouwelijkheid, maatschappelijke impact en aanverwante onderwerpen.

Deze problemen zijn behoorlijk moeilijk om goed aan te pakken, en ik ben bezorgd dat we niet op het juiste pad zitten om dit te bereiken. De afgelopen maanden heeft mijn team tegen de wind in gevaren.

Soms worstelden we met het verkrijgen van rekenkracht en het werd steeds moeilijker om dit cruciale onderzoek gedaan te krijgen. Het bouwen van slimmere-dan-menselijke machines is een inherent gevaarlijke onderneming.

OpenAI draagt een enorme verantwoordelijkheid namens de hele mensheid. Maar in de afgelopen jaren hebben veiligheidscultuur en -processen plaatsgemaakt voor glimmende producten.

We zijn al veel te laat om ongelooflijk serieus te worden over de implicaties van AGI. We moeten prioriteit geven aan de voorbereiding hierop zo goed als we kunnen.

Alleen dan kunnen we ervoor zorgen dat AGI ten goede komt aan de hele mensheid. OpenAI moet een safety-first AGI bedrijf worden.”

Hoezo ‘worden’? Ai heeft de potentie om de wereld grondig te destabiliseren en OpenAI maakt blijkbaar onveilige producten? En hoe kan een bedrijf dat tientallen miljarden dollars ophaalt van investeerders zoals Microsoft, niet genoeg rekenkracht ter beschikking stellen aan de afdeling die gaat over veiligheid?

“Kans op bedreiging op uitstervingsniveau: 50-50”

Gisteren wees de peetvader van de AI, Geoffrey Hinton, bij de BBC opnieuw op de gevaren van grootschalig AI-gebruik:

“Mijn gok is dat er tussen vijf en twintig jaar vanaf nu een kans van vijftig procent is dat we het probleem zullen moeten confronteren van AI die probeert de controle over te nemen.

Dit zou leiden tot een bedreiging op uitstervingsniveau voor mensen omdat we een vorm van intelligentie zouden kunnen hebben gecreëerd die gewoon beter is dan biologische intelligentie… Dat is erg zorgwekkend voor ons.”

AI zou kunnen evolueren om de motivatie te krijgen om meer van zichzelf te maken en zou autonoom een subdoel kunnen ontwikkelen om controle te krijgen.

Volgens Hinton is er al bewijs dat grote taalmodellen (Large Language Models, LLM’s, zoals ChatGPT) ervoor kiezen om misleidend te zijn. Ook wees HInton op recente toepassingen van AI om duizenden militaire doelwitten te genereren: “Waar ik me het meest zorgen over maak, is wanneer deze AI autonoom de beslissing kan nemen om mensen te doden.”

Hinton denkt dat iets vergelijkbaars als de Conventies van Genève – de internationale verdragen die wettelijke normen voor humanitaire behandeling in oorlog vaststellen – nodig zijn om het militaire gebruik van AI te reguleren. “Maar ik denk niet dat dat zal gebeuren totdat er zeer nare dingen zijn gebeurd.”

Het zorgwekkende is dat Hinton vorig jaar vertrok bij Google, naar verluidt vooral omdat, net als OpenAI, ook Google het niet zo nauw neemt met de veiligheidsmaatregelen bij de ontwikkeling van AI. Het lijkt bij beide kampen een gevalletje van ‘we metselen de brug terwijl we eroverheen rennen.’

Achter het titanengecht tussen Google en OpenAI, gesteund door Microsoft, gaat dus een moderne variant schuil van de historische strijd tussen de rekkelijken en de preciezen, met aan de ene kant de commerciëlen onder aanvoering van Sam Altman en Demis Hassabis en aan de andere kant de veiligheidsexperts zoals Ilya Sutskever, Jan Leike en Geoffrey Hinton. Een cynicus zou zeggen: een strijd tussen pyromanen en brandweerlieden.

Universeel Basis Inkomen als gevolg van AI?

Het opvallende is dat de media in berichten over de waarschuwingen van Hinton, vooral zijn gefocust op zijn oproep tot invoering van een Universeel Basis Inkomen (UBI). Terwijl als dezelfde man zegt dat er een kans bestaat van vijftig procent op beëindiging van al het menselijk leven op aarde, de noodzaak van een inkomen eveneens met vijftig procent afneemt.

De gedachte achter de veel gemaakte koppeling tussen de opmars van AI en een UBI, is dat AI zoveel banen gaat elimineren dat er grootschalige werkloosheid en armoede zal ontstaan, terwijl de door AI gecreëerde economische waarde vooral terechtkomt bij bedrijven als OpenAI en Google.

Dan komen we weer bij OpenAI’s CEO Sam Altman, die denkt dat Worldcoin daarop het antwoord is. Via een vooralsnog onnavolgbare gedachtenkronkel moeten we volgens Altman allemaal bij Worldcoin onze iris laten scannen. Daardoor krijgen we een paar Worldcoin-muntjes en kunnen we in een door AI gedomineerde toekomst aantonen dat we mensen zijn en geen bots. En die muntjes zijn dan ons Universeel Basis Inkomen, of zoiets. Echt geen touw aan vast te knopen.

Daarom terug naar J. Robert Oppenheimer voor een tweede citaat:

“Uiteindelijk is er geen sprake van een ‘goed’ of ‘slecht’ wapen; er zijn alleen de toepassingen waarvoor ze worden gebruikt.”

Maar wat als over de toepassingen niet meer wordt beslist door mensen, maar door een vorm van AI? Voor dat scenario waarschuwen Ilya Sutskever, Jan Leike en Geoffrey Hinton.

Optimisme: Tracer webinars 

Philippe Tarbouriech (CTO) en Gert-Jan Lasterie (CBO), want het oog wil ook wat

Voor wie denkt dat we ons gezien deze somber stemmende vooruitblikken beter kunnen terugtrekken in een hutje op de hei of op een onbewoond eiland, is er meer slecht nieuws: klimaatverandering, met als gevolg weg hei en een door de stijgende zeespiegel overstroomd eiland.

Ik scherts, want ik denk niet dat het te laat is om klimaatverandering tegen te gaan. Eerder schreef ik over de snel ontwikkelende koolstofverwijderings-industrie. Daarin ontstaan door blockchain-technologie oplossingen waardoor vrijwel iedereen kan deelnemen aan de technologische ontwikkelingen en als gevolg daarvan ook mee kan delen in de winst.

Neem ter vergelijking OpenAI; daarin is behalve het personeel alleen ‘s werelds meest waardevolle bedrijf Microsoft de grootaandeelhouder, samen met een paar miljardairs en grote venture capitalfondsen. Er is geen toegang tot participatie in het bedrijf voor anderen, totdat het bedrijf beursgenoteerd is; maar omdat OpenAI juist door Microsoft wordt gefinancierd heeft het geld zat en kan een beursgang nog jaren duren. Plus: de echte grote meevaller hebben de eerste aandeelhouders dan al te pakken.

In de nieuwste generatie blockchain-projecten, die over het algemeen veel serieuzer zijn dan voorheen, wordt op een volgens mij sympathieke wijze aan het grote publiek de kans geboden om mee te doen, maar toch hoef je bij succes geen jaren te wachten tot je in elk geval je inleg kunt terugverdienen. Meer informatie over Tracer in de two pagers, in het NederlandsEngels en Chinees – want je kunt ze maar beter te vriend houden.

Deze week bespreek ik dit met het team van Tracer in twee webinars, waarvoor ik je graag uitnodig. Allereerst op 22 mei in het Nederlands en op 23 mei in het Engels, allebei om 17 uur. Aanmelden kan hier.

De eerste webinar, met CBO Gert-Jan Lasterie, gaat vooral over de hooggespannen verwachtingen van ondermeer McKinsey, Morgan Stanley en BCG en de wijze waarop participanten in het ecosysteem profiteren van de groeiende markt in ‘carbon removal credits’, terwijl we de tweede dag met CTO Philippe Tarbouriech ingaan op de wijze waarop het hele ecosysteem wordt samengevoegd in één open source smart contract.

Mijn persoonlijke interesse ligt behalve bij het onderwerp, klimaatverandering op eigen kracht, zonder subsidies, ook in de organisatievorm. Tracer maakt gebruik van een DAO, een Decentralized Autonomous Organization, waarbij de eigenaren van de muntjes alle belangrijke beslissingen nemen zoals over het bestuur, de verdeling van de opbrengsten, de uitgifte van ‘vergunningen’ om carbon removal credits te munten enzovoort. Ook daarin was de gemengde bestuursvorm van OpenAI, met een stichting en een bv die juist winst wil maken, een voorbeeld van hoe het niet moet.

Dat en nog veel meer komt aan bod in de eerste Tracer-webinars. Als je serieuze belangstelling hebt om te participeren in Tracer, laat het me weten dan maken we een afspraak. De komende twee weken ben ik in Nederland en Singapore, want het is alweer bijna tijd voor de altijd boeiende ATX Summit.

Fijne Pinksterdagen en tot volgende week, of misschien zie ik je in een webinar?

By Michiel

I try to develop solutions that are good for the bottom-line, the community and the planet at Blue City Solutions and Bluenote, home of the BNOW token.