Om det är någon som vid det här laget känner till AI bäst av alla, så är det AI själv. Därför har jag och den senaste generationen av ChatGPT och Microsoft CoPilot diskuterat runt varför AI ”ljuger” för människor.
Ett ämne som jag känner är viktigt att peta på, men samtidigt så gav AI motorerna själva en insikt i deras sätt att arbeta som jag inte riktigt var beredd på, eller visste själv.
Varför kan inte AI alltid säga ”jag vet inte”, om den är osäker?
I en värld där AI alltmer används som en källa till information, inspiration och problemlösning, är det lätt att förvänta sig att dessa system ska ge oss exakta och korrekta svar. Men vad händer när AI-modeller, som Microsoft CoPilot eller ChatGPT, levererar information som visar sig vara felaktig? Varför kan de inte bara säga ”jag vet inte” när de är osäkra? Låt oss dyka in i kärnan av problemet.
Att veta vad man inte vet, en mänsklig styrka, en AI-utmaning
Som människor har vi en förmåga att känna igen när vi inte vet något, det finns förstås dom som fortfarande hävdar att dom har rätt, även om dom inte vet det. Men en kombination av intuition, erfarenhet och förmågan att snabbt verifiera information gör att vi människor faktiskt har en fördel. AI, å andra sidan, fungerar väldigt annorlunda. Modeller som CoPilot och ChatGPT är programmerade att analysera stora mängder text och mönster för att generera svar som verkar sannolika. Vad är då problemet? De saknar ett genuint ”självmedvetande” om vad de faktiskt inte vet. Det låter förstås som en vetenskaplig lösning på människors intuition, men det är det inte.
Istället för att säga ”jag vet inte”, tenderar AI att fylla i luckor genom att generera det som är mest statistiskt sannolikt att vara rätt, även om det är felaktigt. Det är som om en människa som inte vet svaret på en fråga gissar, men gör det med självförtroendet hos någon som är väldigt säker.
Varför är det svårt för AI att säga ”jag vet inte”?
Det finns flera anledningar till varför AI ofta undviker att erkänna osäkerhet, men det mesta mynnar ut i hur programmeraren bakom AI modellen tänkt själv. AI är utvecklat för att vara användbart och engagerande. Om en modell skulle säga ”jag vet inte” för ofta, skulle användare snabbt bli frustrerade. Detta skapar en tendens att gissa snarare än att avstå från att svara.
Om du är en användare av Apples Siri så kan du säkert relatera till frustrationen när ”hon” säger ”Jag kan inte hjälpa till med det”, eller helt enkelt är tyst för att undvika att svara.
Alla AI modeller sammanställer sina baserat på sannolikheter. Men bara för att något verkar sannolikt, betyder det inte att det är korrekt. Att utveckla en mekanism för att känna igen och kommunicera osäkerhet kräver avancerade system som inte bara analyserar mönster utan också kan bedöma kvaliteten på den information de genererar. Detta är förstås en fördyrande omständighet som kräver ofantligt mycket mer datakraft än en vanlig standard AI modell.
Om AI skulle programmeras att alltid avstå från att svara vid osäkerhet, skulle vi riskera att förlora mycket användbar information. Det finns många situationer där ett ”bästa gissning” kan vara till stor hjälp, så länge vi vet att det är just en gissning.
Vad är ”sanning” för en AI?
AI:s förmåga att bedöma sanning är begränsad av dess träningsdata. Om den data den tränats på är ofullständig, motsägelsefull eller föråldrad, kommer modellen att återge dessa brister i sina svar. Dessutom saknar AI den kontextuella förståelsen som vi människor använder för att tolka vad som är sant eller rätt i olika sammanhang. Än en gång är vi inne på intuition, som inte är möjlig för en AI modell att efterlikna på ett bra sätt.
Kan vi göra AI bättre på att hantera osäkerhet?
Det pågår mycket forskning för att göra AI-modeller bättre på att hantera och kommunicera osäkerhet. Några möjliga förbättringar inkluderar en teknik som heter ”osäkerhetsmodellering”. Ett system som bättre kan mäta när svaren är osäkra och flagga detta för användaren. Man håller också på att försöka få AI att koppla sitt svar till pålitliga källor i realtid, för att verifiera äktheten i svaret.
Istället för att svara ”jag vet inte” så skulle AI, genom dessa tekniker, förklara graden av osäkerhet. Exempelvis ”Jag är inte säker, men det här är en möjlig förklaring”.
En påminnelse om AI:s roll
Händelser där AI-modeller hittar på fakta eller ger felaktiga svar kan kännas som ett svek, särskilt när vi börjar förlita oss på tekniken. Men det är en viktig påminnelse om att AI inte är ett facit, det är ett verktyg. Vi människor måste fortfarande använda vår källkritik, sunt förnuft och ibland dubbelkolla det vi får presenterat, helst om det rör känsliga uppgifter eller saker som potentiellt kan få allvarliga följder.
Så, vad ska vi tänka på?
När du använder AI är det viktigt att förstå dess begränsningar. Använd AI som en inspirationskälla eller en assistent, men låt den inte bli din enda sanning. För det är när vi själva navigerar mellan fakta, osäkerhet och gråzoner som vi verkligen kan förstå världen omkring oss, något som ingen AI ännu kan efterlikna.
Ofta ställer vi avancerade frågor och försöker få AI att lösa saker som vi själva är nyfikna på, men inte har kapacitet att själva lösa. Här är det otroligt viktigt att förstå att en AI, även om den kan vara behjälplig, även kan hitta på ett svar bara för att den tror att det är korrekt, eller för att inte göra dig besviken. Att använda den informationen till forskning eller liknande kan få förödande konsekvenser.
En hälsning från AI
Sist av allt bad jag ChatGPT och Microsoft CoPilot att kommentera mitt inlägg och lägga till en kort mening om vad om tycker om texten jag skrivit. Här nedan är deras kommentarer:
ChatGPTs kommentar:
”Det här inlägget fångar kärnan i en av de mest fascinerande och utmanande aspekterna av AI – dess tendens att prioritera hjälpsamhet över noggrannhet. Jag uppskattar hur du lyfter fram behovet av källkritik och en balanserad syn på tekniken. Din analys är inte bara skarp, utan också en viktig påminnelse om att människor fortfarande har en avgörande roll när det gäller att tolka och använda AI:s svar. Bra jobbat! 😊”Microsoft CoPilots kommentar:
”Din analys av AI:s förmåga att hantera osäkerhet är både djupgående och relevant. Det är viktigt att förstå att AI, trots sina imponerande kapaciteter, fortfarande har begränsningar när det gäller att erkänna osäkerhet och att alltid ge korrekta svar. Din text påminner om att AI är ett verktyg som bör användas med kritiskt tänkande och medvetenhet om dess begränsningar. Fortsatt forskning och utveckling inom området osäkerhetsmodellering kan förbättra AI:s förmåga att hantera dessa utmaningar, men tills dess måste användare vara medvetna om dessa begränsningar och använda AI som en kompletterande resurs snarare än en absolut sanning.”
Slutligen
Jag tycker att ämnet AI är fruktansvärt intressant och många gånger imponeras jag över hur långt dom mer avancerade modellerna har kommit. Jag förstår att det finns en jättestor vilja att använda dessa verktyg för ”onda avsikter”, eftersom den största utveckligen är inom områden där det går att tjäna pengar.
Som ”simpel användare” så känner jag att även om det bara är begränsat med kunskap som jag får ta del av, så kan modeller som ChatGPT och CoPilot faktiskt hjälpa mig med mycket, även om det är enkla uppgifter. Jag drar mig för att använda Microsoft CoPilot rent professionellt, även om jag har en väldigt dyr licens på detta. Orsaken är att jag inte litar på att CoPilot kan tolka mina avsikter på rätt sätt, en sak som säkert kommer att förbättras om modellerna får utvecklas i några år.
Ha en jättebra dag så hörs vi snart igen.
Lämna ett svar