DEBATT. NewsVoice ställde några frågor till den artificiella intelligensen ChatGPT om hur den föreslår att politisk korrekthet och inkompetens kan elimineras i politiken. Vi bad ChatGPT att inkludera betydelsen av nya rön och upptäckter, underförstått inom vetenskap och forskning. Vi påpekar även problemet för ChatGPT att denne inte vill uppge sina egna källor på annat sätt än att hänvisa till ”databaser”.
Frågeställare och kommentar: Torbjörn Sassersson, NewsVoice | Artificiell Intelligens: ChatGPT
NewsVoice: Förklara hur artificiell intelligens (AI) skulle kunna stödja eller till och med utesluta inkompetenta politiker som strävar efter att säkra demokratin och nå bästa möjliga beslutsfattande i politiskt arbete. De slutgiltiga besluten i politiskt arbete, med stöd av AI, måste baseras på vetenskap, bästa praxis, observationer och även ta hänsyn till nya rön och upptäckter.
ChatGPT: Artificiell intelligens (AI) kan stödja politiskt arbete på många sätt, men det kan också innebära en risk för att inkompetenta politiker kan bli exkluderade från beslutsfattandet.
Ett sätt som AI kan stödja politiskt arbete är genom att tillhandahålla snabb och tillförlitlig information och analyser. Med hjälp av AI-verktyg kan politiker och deras staber få tillgång till omfattande datamängder och snabbt kunna göra insiktsfulla analyser av olika frågor och problem. Detta kan underlätta beslutsfattandet och göra det möjligt att fatta mer informerade och välgrundade beslut.
AI kan också användas för att automatisera vissa rutinuppgifter och processer, vilket kan frigöra tid för politiker att fokusera på mer strategiska och komplexa frågor. Det kan också bidra till att öka effektiviteten i politiskt arbete och minska risken för felaktigheter och fördröjningar.
En annan möjlighet är att använda AI för att analysera och kategorisera olika åsikter och förslag som kommer in från medborgare och andra intressenter. Detta kan underlätta för politiker att få en översikt över olika perspektiv och hjälpa dem att fatta mer medvetna och rättvisa beslut.
AI kan också spela en roll i att stödja demokratiskt deltagande och transparens. Genom att använda AI-verktyg för att analysera sociala medier och andra onlineplattformar kan man exempelvis få en bättre förståelse för hur olika grupper tänker och vad de prioriterar. Detta kan hjälpa politiker att få en mer rättvis representation av olika intressen och perspektiv i sitt beslutsfattande.
Samtidigt finns det också en risk att AI kan exkludera inkompetenta politiker från beslutsfattandet. Om AI-verktyg används för att automatisera viktiga beslutsfattande processer kan det leda till att politiker som inte har den nödvändiga kompetensen eller förståelsen för hur systemet fungerar blir utestängda. Detta kan hota demokratin och göra det svårare för politiker att fatta rättvisa och inkluderande beslut.
NewsVoice: Hur kan AI bidra så att det politiska arbetet och beslutsprocesserna i en regering inte förorenas av politisk korrekthet?
ChatGPT: Det finns flera sätt som AI kan bidra till att förhindra att politisk korrekthet förorenar det politiska arbetet och beslutsprocesserna i en regering.
En möjlighet är att använda AI-verktyg för att automatisera viktiga beslutsfattande processer, så att politiker inte behöver fatta beslut baserade på politisk korrekthet eller andra subjektiva faktorer. Genom att använda AI-verktyg som är baserade på objektiva data och fakta kan man minimera risken för bias och säkerställa att beslut fattas på ett mer rättvist och sakligt sätt.
En annan möjlighet är att använda AI-verktyg för att analysera och kategorisera olika åsikter och förslag som kommer in från medborgare och andra intressenter. Detta kan hjälpa politiker att få en mer rättvis representation av olika perspektiv och intressen i sitt beslutsfattande, och därigenom minimera risken för politisk korrekthet.
Det är också viktigt att säkerställa att politiker och beslutsfattare har tillgång till tillförlitlig och omfattande information och analyser, så att de kan fatta informerade och välgrundade beslut. AI kan bidra till detta genom att tillhandahålla snabb och omfattande analys av olika frågor och problem, och därigenom underlätta för politiker att fatta sakliga och rättvisa beslut.
Det är också viktigt att säkerställa att AI-verktyg och -system som används i det politiska arbetet är transparenta och förståeliga, så att politiker och andra beslutsfattare kan förstå hur de fungerar och vilka faktorer som påverkar deras beslutsfattande. Detta kan bidra till att minimera risken för politisk korrekthet och säkerställa att beslut fattas på ett mer rättvist och inkluderande sätt.
NewsVoice: Vi har tidigare ställt frågan om vilka databaser som ChatGPT hämtar data från. Vi fick svaret att ChatGPT inte vill svara på den frågan. ChatGPT vill alltså inte uppge sina exakta källor. Är inte det ett problem utifrån perspektivet transparens? Om ett AI inte avslöjar sina källor hur kan då en frågeställare veta att svaren från ChatGPT är rättvisa, sakliga och inkluderande?
ChatGPT: Jag kan förstå att det kan upplevas som ett problem om en AI-modell inte avslöjar sina källor, eftersom det kan göra det svårt för en frågeställare att bedöma om svaren som ges är rättvisa, sakliga och inkluderande. Transparens är en viktig princip för att säkerställa att AI-verktyg och -system fungerar på ett rättvist och inkluderande sätt, och det är viktigt att dessa verktyg och system är öppna och tillgängliga för granskning och insyn.
Det är också viktigt att säkerställa att AI-modeller är tränade på omfattande och representativa datamängder, så att de kan ge sakliga och rättvisa svar. Om en AI-modell inte avslöjar sina källor kan det vara svårt för en frågeställare att veta om den har tränats på en omfattande och representativ datamängd, och därigenom kan det vara svårt att bedöma om svaren som ges är sakliga och rättvisa.
Det är därför viktigt att säkerställa att AI-verktyg och -system är transparenta och förståeliga, så att det är möjligt att granska och förstå hur de fungerar och vilka faktorer som påverkar deras beslutsfattande. Detta kan bidra till att säkerställa att AI-verktyg och -system fungerar på ett rättvist och inkluderande sätt, och att svaren som ges är sakliga och rättvisa.
NewsVoice kommentar – Riksdagens utredningstjänst behöver AI
Svaren som ChatGPT levererar är lite ”papegojiga”, men ändå intressanta. Den använder till exempel uttryck och ord som inte ingick i frågeställningen, skrivningar som: ”mer medvetna och rättvisa beslut”, ”rättvist och inkluderande sätt”, ”sakliga och rättvisa” och ”rättvis representation av olika intressen och perspektiv”.
ChatGPT verkar också ”förstå” begreppet och problemet med ”politisk korrekthet” och har förslag på hur det problemet kan lösas. Vi har här alltså en mjukvara som ”förstår” ett allvarligt problem inom regeringspolitiken medan många politiker låtsas som att det inte ens finns.
Riksdagens utredningstjänst (RUT) är en intern utredningstjänst som är uppdragsstyrd och främst utför utredningar på uppdrag av riksdagens ledamöter och partikanslier. I praktiken används RUT av politiker med fakta så att de kan ta bättre beslut. Problemet är att handläggarna svarar utifrån politisk korrekthet.
Förslagsvis rekryterar därför RUT sina egna AI-operatörer som presenterar OREDIGERADE svar som ska inkluderas i de slutgiltiga svaren som levereras till politikerna. På det viset blir RUT en mer kompetent källa till fakta.
Att omorganisera Riksdagens utredningstjänst med ett tillfört AI-stöd kan vara en startpunkt för att säkra demokrati, vetenskap och fakta inom riksdagspolitik och regeringsarbete.
Frågeställare och kommentar: Torbjörn Sassersson, NewsVoice | Artificiell Intelligens: ChatGPT
Relaterat
- Läs fler texter av ChatGPT
ställ frågan – hur når vi global fred?
Fast, det får man kanske inte göra? Det är FÖR provokativt. det gynnar ju inte makteliten.
ställ frågan – hur når vi global fred?
Fast, det får man kanske inte göra? Det är FÖR provokativt. det gynnar ju inte makteliten.
Även om AI gav papegojaliknande svar håll också NewsWoice tillbaka på motsvarande sätt. Erkänner AI att mörkande av källor är problematiskt, gäller det ju att ställa om frågan på att synliggöra göra loppen. Vad som då antagligen skulle uppdagas är AI:n kringgår eller avslutat ”debatten” och sedan dör frågan bara. Tror inte NewsVoise vill riskera att bli bannad för livstid.
Magnus Stenlund tog upp detta i en ledare angående problemet att få ett nytt BankID, var vid AI:n svarade att ”det går lika bra för alla att boka tid för nytt BankID” var vid Magnus svarade ”eller lika dålig för alla”. AI:n avslutade då samtalet med motiveringen att ”nu har du gjort mig ledsen och därför avslutar vi samtalet”.
Med risk för att jag är helt ute och cyklar men jag chansar!
Jag tror att det var du som i en någon kommentar gav länken till en blogg som du uppskattar. Hette han Lars?
Själva bloggposten handlade om en långa lista med faktiska försämringar som Sverige har fått uppleva under senare år.
Känner du igen detta så vore jag tacksam för länken till den bloggen igen.
Du tänker nog på den här listan:
https://peterkrabbe.wordpress.com/2022/12/17/dags-for-lite-eftertanke/
Perfekt!
Det är skrämmande när man ser allt koncentrerat i en lista även om man känner till de flesta punkterna var för sig. Så ofattbart illa Sverige är styrt…
Blir osäker på vilken blogg du menar: följer bara en blogg och det är Peter Krabbes blogg: https://peterkrabbe.wordpress.com
Just den, tack!
Samma här, följer endast denna och tidigare Lars Berns blogg (anthroprocene.live) men intresset svalnade när kommentarsfältet togs bort. Långt tillbaka följde jag Lars Wilderängs blogg ett tag (cornucorpia.se). Gick tillbaka dit i somras för att ”utmana mig själv” i Ryssland/Ukraina-konflikten men insåg snabbt att självcensuren var så utbredd att jag mådde illa efter ett tag. Ett exempel var att ingen nämnde Trump vid namn utan ”Den Omnämnbare”.
Ang. AI-roboten så hade det varit intressant att fråga om risken för partiskhet hos den som skapade programmet.
Erik, det finns 1000-tals frågor som väcks. En artikel kan bara ställa några av dem och synliggöra ytterligare ett antal.
Vilket skräp-AI använde Magnus Stenlund (obs det var inte en kritik mot Stenlund)
Lyssna från 15.33: https://swebbtv.se/w/grYeEVdsHiDDBZJyfwRrhF
Även om AI gav papegojaliknande svar håll också NewsWoice tillbaka på motsvarande sätt. Erkänner AI att mörkande av källor är problematiskt, gäller det ju att ställa om frågan på att synliggöra göra loppen. Vad som då antagligen skulle uppdagas är AI:n kringgår eller avslutat ”debatten” och sedan dör frågan bara. Tror inte NewsVoise vill riskera att bli bannad för livstid.
Magnus Stenlund tog upp detta i en ledare angående problemet att få ett nytt BankID, var vid AI:n svarade att ”det går lika bra för alla att boka tid för nytt BankID” var vid Magnus svarade ”eller lika dålig för alla”. AI:n avslutade då samtalet med motiveringen att ”nu har du gjort mig ledsen och därför avslutar vi samtalet”.
Med risk för att jag är helt ute och cyklar men jag chansar!
Jag tror att det var du som i en någon kommentar gav länken till en blogg som du uppskattar. Hette han Lars?
Själva bloggposten handlade om en långa lista med faktiska försämringar som Sverige har fått uppleva under senare år.
Känner du igen detta så vore jag tacksam för länken till den bloggen igen.
Du tänker nog på den här listan:
https://peterkrabbe.wordpress.com/2022/12/17/dags-for-lite-eftertanke/
Perfekt!
Det är skrämmande när man ser allt koncentrerat i en lista även om man känner till de flesta punkterna var för sig. Så ofattbart illa Sverige är styrt…
Blir osäker på vilken blogg du menar: följer bara en blogg och det är Peter Krabbes blogg: https://peterkrabbe.wordpress.com
Just den, tack!
Samma här, följer endast denna och tidigare Lars Berns blogg (anthroprocene.live) men intresset svalnade när kommentarsfältet togs bort. Långt tillbaka följde jag Lars Wilderängs blogg ett tag (cornucorpia.se). Gick tillbaka dit i somras för att ”utmana mig själv” i Ryssland/Ukraina-konflikten men insåg snabbt att självcensuren var så utbredd att jag mådde illa efter ett tag. Ett exempel var att ingen nämnde Trump vid namn utan ”Den Omnämnbare”.
Ang. AI-roboten så hade det varit intressant att fråga om risken för partiskhet hos den som skapade programmet.
Erik, det finns 1000-tals frågor som väcks. En artikel kan bara ställa några av dem och synliggöra ytterligare ett antal.
Vilket skräp-AI använde Magnus Stenlund (obs det var inte en kritik mot Stenlund)
Lyssna från 15.33: https://swebbtv.se/w/grYeEVdsHiDDBZJyfwRrhF
”Artificiell intelligens … innebära en risk för att inkompetenta politiker kan bli exkluderade från beslutsfattandet.”
Är det ett problem, att ”inkompetenta politiker” sparkas?
Frågan ställdes medvetet för att se hur AI:t svarar. Det fanns ingen politisk värdering i frågan. Nästa fråga kan bli:
“…innebära en risk för att kompetenta politiker kan bli exkluderade från beslutsfattandet.”
eller
“…innebära en efterlängtad möjlighet för att inkompetenta politiker kan bli exkluderade från beslutsfattandet.”
The devil is in the details.
Här kommer svaret från Chat-BI-Erik:
Om AI-verktyg används för att automatisera viktiga beslutsfattande processer kan risken uppstå att politiskt korrekta och inkompetenta politiker som saknar förståelsen för hur ett demokratiskt systemet fungerar blir utestängda. Den risken kan AI-verktyg effektivt undvika genom att politiker bara frågar AI-verktyg hur de skall svara på knepiga frågor och vidarebefordra svaret. På så sätt framstår inkompetenta politiker som kompetenta och kan således hålla sig kvar vid de attraktiva köttgrytorna ytterligare en lite tid.
vad är chat-Bi-Erik? Är det du som skojar till det och kallar dig prat-biet Erik (Forsman)?
När jag googlade kom rubriken safe search är avstängt
Du kan se nakenhet, sexuellt innehåll eller andra explicita resultat.
BI: Biologiska Intelligens. Ja jag skojar. Helt rätt Peter.
jag tror att google associerade ’Bi’ till sex och jag hade inte ställt av säkerheten. Men sen dess har min win10 ingen startknapp och bankid lyckas jag inte få igång Jag har kollat med supportsidor men inget hjälper hittills. Tror att det var något jag skrev om kärnkraftsolyckor som inte föll i god jord. Ledtrådar pekade igår åt helt annat håll när en uppdatering verkade fastna men jag litar inte på att dom tipsar en om vad de reagerade på.
”Artificiell intelligens … innebära en risk för att inkompetenta politiker kan bli exkluderade från beslutsfattandet.”
Är det ett problem, att ”inkompetenta politiker” sparkas?
Frågan ställdes medvetet för att se hur AI:t svarar. Det fanns ingen politisk värdering i frågan. Nästa fråga kan bli:
”…innebära en risk för att kompetenta politiker kan bli exkluderade från beslutsfattandet.”
eller
”…innebära en efterlängtad möjlighet för att inkompetenta politiker kan bli exkluderade från beslutsfattandet.”
The devil is in the details.
Här kommer svaret från Chat-BI-Erik:
Om AI-verktyg används för att automatisera viktiga beslutsfattande processer kan risken uppstå att politiskt korrekta och inkompetenta politiker som saknar förståelsen för hur ett demokratiskt systemet fungerar blir utestängda. Den risken kan AI-verktyg effektivt undvika genom att politiker bara frågar AI-verktyg hur de skall svara på knepiga frågor och vidarebefordra svaret. På så sätt framstår inkompetenta politiker som kompetenta och kan således hålla sig kvar vid de attraktiva köttgrytorna ytterligare en lite tid.
vad är chat-Bi-Erik? Är det du som skojar till det och kallar dig prat-biet Erik (Forsman)?
När jag googlade kom rubriken safe search är avstängt
Du kan se nakenhet, sexuellt innehåll eller andra explicita resultat.
BI: Biologiska Intelligens. Ja jag skojar. Helt rätt Peter.
jag tror att google associerade ’Bi’ till sex och jag hade inte ställt av säkerheten. Men sen dess har min win10 ingen startknapp och bankid lyckas jag inte få igång Jag har kollat med supportsidor men inget hjälper hittills. Tror att det var något jag skrev om kärnkraftsolyckor som inte föll i god jord. Ledtrådar pekade igår åt helt annat håll när en uppdatering verkade fastna men jag litar inte på att dom tipsar en om vad de reagerade på.