De claim van Google dat chatbot Bard zelf Bengaals heeft geleerd, wordt in twijfel getrokken door een voormalig onderzoeker

De claim van Google dat chatbot Bard zelf Bengaals heeft geleerd, wordt in twijfel getrokken door een voormalig onderzoeker

Uncategorized

Alphabet CEO Sundar Pichai is de laatste tijd veel te zien in interviews en podcasts, waarin hij diepgaande inzichten geeft in de toekomstplannen van Google op het gebied van kunstmatige intelligentie (AI). Gezien de recente uitdagingen van het bedrijf en de intense concurrentie van Microsoft, is het een verstandige strategie van Pichai om rond te gaan. Echter heeft een recent video segment op CBS’ ’60 Minutes’ voor ophef gezorgd.

In het interview praat Pichai uitgebreid over AI en de impact ervan op de samenleving. Een specifiek aspect van de video dat de aandacht trok, is de vermelding van hoe Google Bard zichzelf onverwachte vaardigheden begon aan te leren. Pichai beweerde dat een van de AI-programma’s van Google zich had aangepast aan de taal van Bangladesh, het Bengaals, terwijl het daar niet voor getraind was.

Voormalig Google-onderzoeker Margaret Mitchell ging echter naar Twitter om erop te wijzen dat deze uitspraak onjuist was. Mitchell leverde bewijs dat het PaLM AI-model van Google, de voorloper van Bard, al was getraind om het Bengaals te begrijpen. Google had het PaLM-model tijdens zijn Google I/O-evenement in 2022 aangekondigd, en het was getraind om te communiceren in het Bengaals, aldus Mitchell.

Dit roept de vraag op of Google-executives opzettelijk hype creëerden rond de Bard chatbot door te beweren dat deze zelf Bengaals had geleerd. Mitchell’s vraag over wie verantwoordelijk is voor de desinformatie vestigt de aandacht op de behoefte aan transparantie in AI-ontwikkelingen. Onnauwkeurige beweringen, zelfs als ze niet opzettelijk zijn, kunnen het publiek misleiden en de vooruitgang belemmeren.

De bewering dat Bard zelf Bengaals heeft geleerd, is in twijfel getrokken, en dit heeft verder bijgedragen aan de hype rond AI. Emily M. Bender, hoogleraar taalkunde aan de University of Washington, verwees naar Pichai’s CBS-segment en zei dat we AI-hype niet als nieuws moeten accepteren. De overhype van AI kan leiden tot onrealistische verwachtingen over de mogelijkheden ervan, en dit kan schadelijk zijn voor de ontwikkeling ervan.

Private bedrijven zoals Google profiteren echter van de hype, omdat dit kan leiden tot meer investeringen en vraag naar hun op AI-gebaseerde producten en diensten. In de video gaat Pichai zelfs verder door te zeggen dat de samenleving niet is voorbereid op de snelle vooruitgang van AI. Hoewel dit soort uitspraken fascinerend kunnen lijken, geloven velen dat ze alleen maar bijdragen aan de hype rond AI.

De desinformatie rond de autonome leerervaring van Bard in het Bengaals toont het belang aan van ethische AI-praktijken. Naarmate AI blijft evolueren en een steeds kritischer rol speelt in ons leven, is het cruciaal om ervoor te zorgen dat de ontwikkeling ervan transparant en nauwkeurig is. De AI-industrie moet zich richten op het creëren van realistische verwachtingen en het ontwikkelen van verantwoordelijke AI-praktijken om de verspreiding van misinformatie en onrealistische hype te voorkomen.

In conclusie, de bewering dat de chatbot Bard van Google autonoom Bengaals heeft geleerd, wordt in twijfel getrokken door een voormalig onderzoeker. Het incident benadrukt de noodzaak van transparantie in AI-ontwikkeling en ethische AI-praktijken. Hoewel AI veel potentieel heeft, kan overhyping ervan schadelijk zijn voor de vooruitgang, en is het essentieel om te focussen op verantwoordelijke AI-praktijken om de verspreiding van misinformatie te voorkomen.