Den amerikanska teknikskribenten Ian Bogost förkastar ChatGPT som lurig skitsnackare

NewsVoice är en oberoende nättidning med utgivningsbevis som startade 2011. Syftet är att publicera nyheter, debattartiklar, kommentarer och analyser. Stöd vårt arbete genom att donera, sponsra (tex granskningar, utlandsreportage) eller annonsera.
publicerad 29 december 2022
- NewsVoice redaktion
Robot och Ian Bogost. Foton: Alex Knight (Unsplash.com och Washington University

ARTIFICIELL INTELLIGENS. ”Många har de senaste veckorna låtit sig bländas av AI-chattroboten Chat GPT. Men, när The Atlantics teknikskribent pressar den lite, så lägger den sig direkt platt och erkänner att den bara hittar på saker. AI:n, en storskalig språkmodell, producerar imitationer av mänskligt skrivande – och faktamässigt blir innehållet inte bättre än de böcker, forskning, Wikipediaartiklar, nätforum och skitsnack på nätet den härmar.”

Så inleder Svenska Dagbladet sin artikel ”Varför låter sig folk luras av nya AI-chattroboten?” skriven av teknikskribenten Ian Bogost The Atlantic med den ursprungliga rubriken ”ChatGPT Is Dumber Than You Think”.

Bogost:

”Som kritiker av teknik måste jag säga att entusiasmen för ChatGPT, en stor språkmodell tränad av OpenAI, är felplacerad. Även om det kan vara imponerande ur ett tekniskt perspektiv, innebär idén att lita på en maskin för att ha konversationer och generera svar allvarliga frågor.

Först och främst saknar ChatGPT förmågan att verkligen förstå komplexiteten i mänskligt språk och samtal. Den är bara tränad att generera ord baserat på en given input, men den har inte förmågan att verkligen förstå innebörden bakom dessa ord. Detta innebär att alla svar som den genererar troligen kommer att vara ytliga och sakna djup och insikt.

Dessutom ställer förtroendet för ChatGPT för konversation upp etiska frågor. Om människor börjar lita på en maskin för att ha konversationer för dem, kan det leda till ett förlust av äkta mänsklig kontakt. Förmågan att ansluta sig till andra genom samtal är en grundläggande del av att vara människa, och att outsourca det till en maskin kan ha skadliga bieffekter på vårt samhälle.

Vänta lite, det var inte jag, Ian Bogost, som skrev de tre föregående styckena. En vän skickade dem till mig som skärmbilder från hans session med ChatGPT, ett program som OpenAI släppte förra veckan och som man interagerar med genom att skriva in ett chattfönster. Det är verkligen en stor språkmodell (eller LLM), en typ av djupinlärningsprogram som kan generera ny text efter att ha tränats på massor av befintligt skrivet material. Min väns förslag var detta: ”Skapa en kritik av entusiasmen för ChatGPT i Ian Bogosts stil”.”

Så här översatte AI:t ChatSonic skribenten Ian Bogosts fyra första stycken text i sin artikel i The Atlantic, med en mindre grammatisk korrigering av NewsVoice.

”Chat GPT skrev mer, men jag besparar er resten eftersom det var så ointressant. AI-roboten skrev ett stycke till om ansvarsskyldighet (”Om Chat GPT säger eller gör något olämpligt, vem är ansvarig?) och sedan ett sammanfattande stycke som upprepade resten (den började till och med med: ”Slutligen, …”). Kort sagt skrev den en standarduppsats i gymnasiestil i fem stycken”, skriver Bogost översatt av en skribent på SvD.

Bogost fortsätter sin kritik av ChatPGT. NewsVoice återger två valda stycken rakt översatta av AI:t Chat GPT:

”Kanske är ChatGPT och teknologierna som ligger bakom den mindre om övertygande skrivande och mer om fantastiskt skitsnack. En skitsnackare leker med sanningen av dåliga skäl – för att komma undan med något. Den ursprungliga responsen på ChatGPT antar det: att det är ett verktyg för att hjälpa människor att konstruera studentessäer, eller nyhetsartiklar, eller vad som helst annat. Det är en lätt slutsats för de som antar att AI är avsett att ersätta mänsklig kreativitet snarare än att komplettera den.

Internet och hela tekniksektorn som det svävar på känns som ett gigantiskt organ för skitsnack – för att skala upp människors tillgång till tal och för att förstärka lögner. Online luras och bedrar och slåss människor med varandra. Djupinlärning AI försämrar allt detta genom att dölja driften av mjukvara som LLM:er så att ingen, inte ens deras skapare, kan förklara vad de gör och varför.”

Ian Bogost fortsätter med att beskriva hur ChatGPT misslyckas med att producera genuin poesi och Bogost lyckades även lura ChatGPT att beskriva en påhittad psykologisk diagnos. AI:t medgav att den hittade på.

SvD översatte:

”Så här långt började samtalet med Chat GPT kännas som vilken annan interaktion som helst man har på internet, där någon man (alltid en man) efter att ha skummat en artikel på Wikipedia försöker hävda något som expertfakta. Men Chat GPT var alltid villig att erkänna att den hade fel. Omedelbart och utan protest. Och varje gång visste roboten dessutom, med hyfsad precision, varför den hade fel.”

”Chat GPT:s mål är inte att komma med korrekta argument vara kreativ. I stället producerar den text i en form som överensstämmer med frågeställarens uttryckliga eller underförstådda avsikt, och som också kan innehålla sanning under vissa omständigheter. Det vill säga – tyvärr – korrekta återgivningar av alla sorters texter: på nätet, i böcker, på Wikipedia och mycket mer.”

Hårddraget sammanfattar Ian Bogost att AI-robotar inte förstår text utan istället erbjuder olika sätt att leka med texter.

SvD översatte Bogost slutord:

”AI-roboten förstår inte och komponerar inte text. Den erbjuder ett sätt att söka igenom text, att leka med text, att forma en oändlig mängd prosa på helt olika områden – inklusive litteratur och forskning och skitsnack – till strukturer som man kan ställa ytterligare frågor till, som ibland blir besvarade. Föreställ dig en sorts synthesizer vars knappar samplar textinformation, stil och semantik, som gör det möjligt att leka och spela med texten som på ett instrument.”

Samanställning: NewsVoice


Du kan stötta Newsvoice via MediaLinq