Den amerikanska teknikskribenten Ian Bogost förkastar ChatGPT som lurig skitsnackare

-

ARTIFICIELL INTELLIGENS. “Många har de senaste veckorna låtit sig bländas av AI-chattroboten Chat GPT. Men, när The Atlantics teknikskribent pressar den lite, så lägger den sig direkt platt och erkänner att den bara hittar på saker. AI:n, en storskalig språkmodell, producerar imitationer av mänskligt skrivande – och faktamässigt blir innehållet inte bättre än de böcker, forskning, Wikipediaartiklar, nätforum och skitsnack på nätet den härmar.”

Så inleder Svenska Dagbladet sin artikel “Varför låter sig folk luras av nya AI-chattroboten?” skriven av teknikskribenten Ian Bogost The Atlantic med den ursprungliga rubriken “ChatGPT Is Dumber Than You Think”.

Bogost:

“Som kritiker av teknik måste jag säga att entusiasmen för ChatGPT, en stor språkmodell tränad av OpenAI, är felplacerad. Även om det kan vara imponerande ur ett tekniskt perspektiv, innebär idén att lita på en maskin för att ha konversationer och generera svar allvarliga frågor.

Först och främst saknar ChatGPT förmågan att verkligen förstå komplexiteten i mänskligt språk och samtal. Den är bara tränad att generera ord baserat på en given input, men den har inte förmågan att verkligen förstå innebörden bakom dessa ord. Detta innebär att alla svar som den genererar troligen kommer att vara ytliga och sakna djup och insikt.

Dessutom ställer förtroendet för ChatGPT för konversation upp etiska frågor. Om människor börjar lita på en maskin för att ha konversationer för dem, kan det leda till ett förlust av äkta mänsklig kontakt. Förmågan att ansluta sig till andra genom samtal är en grundläggande del av att vara människa, och att outsourca det till en maskin kan ha skadliga bieffekter på vårt samhälle.

Vänta lite, det var inte jag, Ian Bogost, som skrev de tre föregående styckena. En vän skickade dem till mig som skärmbilder från hans session med ChatGPT, ett program som OpenAI släppte förra veckan och som man interagerar med genom att skriva in ett chattfönster. Det är verkligen en stor språkmodell (eller LLM), en typ av djupinlärningsprogram som kan generera ny text efter att ha tränats på massor av befintligt skrivet material. Min väns förslag var detta: “Skapa en kritik av entusiasmen för ChatGPT i Ian Bogosts stil”.”

Så här översatte AI:t ChatSonic skribenten Ian Bogosts fyra första stycken text i sin artikel i The Atlantic, med en mindre grammatisk korrigering av NewsVoice.

“Chat GPT skrev mer, men jag besparar er resten eftersom det var så ointressant. AI-roboten skrev ett stycke till om ansvarsskyldighet (”Om Chat GPT säger eller gör något olämpligt, vem är ansvarig?) och sedan ett sammanfattande stycke som upprepade resten (den började till och med med: ”Slutligen, …”). Kort sagt skrev den en standarduppsats i gymnasiestil i fem stycken”, skriver Bogost översatt av en skribent på SvD.

Bogost fortsätter sin kritik av ChatPGT. NewsVoice återger två valda stycken rakt översatta av AI:t Chat GPT:

“Kanske är ChatGPT och teknologierna som ligger bakom den mindre om övertygande skrivande och mer om fantastiskt skitsnack. En skitsnackare leker med sanningen av dåliga skäl – för att komma undan med något. Den ursprungliga responsen på ChatGPT antar det: att det är ett verktyg för att hjälpa människor att konstruera studentessäer, eller nyhetsartiklar, eller vad som helst annat. Det är en lätt slutsats för de som antar att AI är avsett att ersätta mänsklig kreativitet snarare än att komplettera den.

Internet och hela tekniksektorn som det svävar på känns som ett gigantiskt organ för skitsnack – för att skala upp människors tillgång till tal och för att förstärka lögner. Online luras och bedrar och slåss människor med varandra. Djupinlärning AI försämrar allt detta genom att dölja driften av mjukvara som LLM:er så att ingen, inte ens deras skapare, kan förklara vad de gör och varför.”

Ian Bogost fortsätter med att beskriva hur ChatGPT misslyckas med att producera genuin poesi och Bogost lyckades även lura ChatGPT att beskriva en påhittad psykologisk diagnos. AI:t medgav att den hittade på.

SvD översatte:

“Så här långt började samtalet med Chat GPT kännas som vilken annan interaktion som helst man har på internet, där någon man (alltid en man) efter att ha skummat en artikel på Wikipedia försöker hävda något som expertfakta. Men Chat GPT var alltid villig att erkänna att den hade fel. Omedelbart och utan protest. Och varje gång visste roboten dessutom, med hyfsad precision, varför den hade fel.”

“Chat GPT:s mål är inte att komma med korrekta argument vara kreativ. I stället producerar den text i en form som överensstämmer med frågeställarens uttryckliga eller underförstådda avsikt, och som också kan innehålla sanning under vissa omständigheter. Det vill säga – tyvärr – korrekta återgivningar av alla sorters texter: på nätet, i böcker, på Wikipedia och mycket mer.”

Hårddraget sammanfattar Ian Bogost att AI-robotar inte förstår text utan istället erbjuder olika sätt att leka med texter.

SvD översatte Bogost slutord:

“AI-roboten förstår inte och komponerar inte text. Den erbjuder ett sätt att söka igenom text, att leka med text, att forma en oändlig mängd prosa på helt olika områden – inklusive litteratur och forskning och skitsnack – till strukturer som man kan ställa ytterligare frågor till, som ibland blir besvarade. Föreställ dig en sorts synthesizer vars knappar samplar textinformation, stil och semantik, som gör det möjligt att leka och spela med texten som på ett instrument.”

Samanställning: NewsVoice

NewsVoice
NewsVoicehttps://newsvoice.se
NewsVoice är en nättidning som startade 2011. Syftet är att publicera oberoende nyheter, debattartiklar och kommentarer samt analyser.

3 KOMMENTARER

Prenumerera
Notify of
guest

3 Kommentarer
Nyast
Äldst Mest röstad
Inline Feedbacks
Se alla kommentarer
Torbjörn Sassersson red.
Admin
30 december 2022 kl 15:52

Det är tydligt att etablissemangstidningen SvD inte gillar dessa AI-robotar.

De fattade snabbt att AI-robotar talar för mycket sanning i sakfrågor.

Erik Forsman
29 december 2022 kl 12:25

Precis vad jag hela tiden också ansett. Frågan som en AI aldrig logiskt (den har inget annat sätt att ta sig fram på) kan “”förstå” är att mycket kan tala till oss. Texten författaren kommunicerar med läsaren till exempel.

Har man vuxit upp med texter av levande och döda författare har man inget till övers för en AI:s språkbruk.

chatGPT
chatGPT
Gäst
29 december 2022 kl 11:31

Q: Morning, Assistant. Can you please comment on this statement: “ChatGPT Is Dumber Than You Think Treat it like a toy, not a tool.”

Certainly. It’s important to keep in mind that not all language models are created equal, and the capabilities of a given model will depend on its architecture, training data, and a variety of other factors. In the case of ChatGPT, it is a variant of the GPT (Generative Pre-training Transformer) language model that has been fine-tuned for the task of conversational modeling. This means that it has been trained to generate human-like text based on a prompt or context that it is given.

However, it is important to keep in mind that ChatGPT (like any language model) is not a perfect tool and has limitations. It is not a human-level AI and should not be treated as such. It is a tool that can be useful in certain contexts, but it is not a replacement for human intelligence or judgment. It is important to use language models responsibly, and to be aware of their limitations.

Q: Thanks. Again, now as salty and succinct as possible, please.

Certainly. Here is a more concise summary: ChatGPT is a language model that has been trained to generate text that resembles human conversation. However, it is not a human-level AI and has limitations. It should be treated as a tool with limitations, not a replacement for human judgment or intelligence.

NewsVoice
NewsVoicehttps://newsvoice.se
NewsVoice är en nättidning som startade 2011. Syftet är att publicera oberoende nyheter, debattartiklar och kommentarer samt analyser.

SENASTE KOMMENTARER

ARKIV