Ibland så gillar jag att sitta och leka med AI, eftersom man får mycket kunskap på köpet. Framförallt så känner jag att jag blir bättre på att få fram det resultat jag vill från olika AI motorer. När jag faktiskt har en licens på Microsoft CoPilot rent professionellt så passar den ju utsökt att ställa inför lite problematiska pussel och liknande.
Jag funderade på vilka uppgifter som kan vara väldigt komplexa och problematiska att lösa där AI kunde vara behjälplig och kom fram till att dekryptering av meddelanden kunde vara ett bra ställe att börja på. Det låter kanske väldigt farligt, men jag kunde snabbt konstatera att det inte var tal om några dekrypteringar av filer och liknande, utan rena meddelanden i utbildningssyfte som gällde. CoPilot var noga med detta och jag respekterar att den inte vill knäcka kryptering på skyddade filer.
Jag började med att ge den lite meddelanden i Caesar-kryptering för att se var nivån går. Efter lite klurande och ledtrådar så fungerade det bra att få fram kortare meddelanden. När jag och CoPilot kommit överens och blivit varma i kläderna så ökade jag svårighetsgraden och använde en annan AI för att generera den krypterade texten och tillsammans skulle CoPilot och jag försöka att knäcka den.
När vi var inne på en Vigenere kryptering, som innefattar en hemlig nyckel, så blev det komplicerat för både mig och för CoPilot när vi tillsammans försökte knäcka meddelandet. Det är förstås otroligt intressant att hålla på med sånt här och min kreativa sida kommer verkligen fram efter ett tag.
Lite klurande så upptäckte CoPilot ett mönster som tydde på att koden vi letar efter är fem tecken långt. Vi började gå igenom ord på fem bokstäver. Vigenere behöver inte vara ett ord, bara slumpade bokstäver, men vi testade ändå ord eftersom jag valt att svårighetsnivån inte skulle vara så hög.
Meddelandet löd: ”Tuow ts n bicy fkgceg sidsnmi ehnz md hvjhpn sxsx pygmy svmle bl zlp mrgrd os krnrlvxtoa. Ox dhbapo nbz fp sb kedy gu wzlik.”
Efter ett tag så meddelade CoPilot att den genom analys löst krypteringen genom att använda nyckeln ”APPLE”, en sak som jag kände kunde stämma. Jag gratulerade CoPilot för ett jobb bra utfört, men upptäckte sedan en konstig sak. Meddelandet som CoPilot löst var:
”This is a test message encoded with vigenere cipher and the key is apple. It should now be easy to read.”
Det konstiga som jag upptäckte var att det krypterade meddelandet var 25 ord långt, medan svaret som CoPilot hittade var 21 ord långt. Eftersom AI trots allt inte är dum så ”konfronterade” jag CoPilot enligt nedan screenshot:

Vad jag upplevt var en av AI-systemens största problem, nämligen när dom på ett övertygat sätt påstår något som vi inte kollar upp, eftersom vi i grund och botten inte ids processa den information som skyfflas över oss hela tiden.
Att leka runt med AI och knäcka enkla krypteringsmetoder är förstås inte vad jag syftar på i det stora hela. Men att det inte är möjligt att övertyga AI om att den gjort fel är inte speciellt trevligt. Det känns lite som att man säger åt en vän som ljuger för en att dom ljuger, vilket resulterar att dom vänder sig mot en och säger ”nu vill jag inte prata om det mer, vi pratar om något annat…”
Jag blev förstås nyfiken vad ”icke-professionell-AI” kunde hitta på. Så jag hoppade över till Google Gemini, som är expert på att ljuga för sina ”vänner”. Gemini hittade på krypterade meddelanden till mig som varken jag eller den själv kunde lösa i efterhand. När jag konfronterade Gemini så vände den på steken och frågade mig ”Hmm, du kanske har gjort något fel. Vad använde du för kod när du krypterade meddelandet?”. När jag förklarade att det var Gemini själv som krypterade meddelandet och att jag skulle hitta koden så förstod den inte vad jag menade.
Det kändes som att prata med en dement gammal gubbe som helt plötsligt tappat tråden och inte längre var på samma plan som en själv. Nu är ju AI trots allt bara en glorifierad sökmotor i grund och botten, så man kan inte tänka på den som en ”person”, även om den är duktig på att övertyga om att den verkligen är en person i grund och botten.
Jag testade flera gånger att generera olika krypteringar, men ingenting stämde. Det var precis som att den bara hittade på, för att verka duktig. Även när jag bad den att kryptera ett meddelande och bifoga nyckeln till krypteringen, så gick det inte att de-kryptera meddelandet. Den hittade helt enkelt på allt lite slumpmässigt, men ändå väldigt övertygande.
Efter att Gemini bett om ursäkt och hade många bortförklaringar varför det blev fel hela tiden så valde jag att avbryta detta experiment. Jag återgick till CoPilot, som onekligen är den mest ”professionella” AI hjälpredan som finns för ”oss dödliga”.
Den version som jag använder har tillgång till i princip alla dokument och mail i mitt arbete, för att hjälpa mig att hitta och sammanställa information, bland annat. Här har jag också varit med om att den ”spårar ur”. När jag ställer en fråga som ”Kan du hitta information om när Kalle skickade senaste mailet till mig och sammanställa vad det handlade om”, så kunde jag få ett helt påhittat svar där ”Kalle” begärt att få statistik på något, även om det inte existerar några sådana konversationer någonstans.
Precis som jag sa så är bekymret att AI är väldigt övertygande. Samtliga är väldigt duktiga på att få saker och ting att verka ok, även om det är en ren och skär lögn. Att mixa fakta med fantasifulla detaljer är inga som helst problem. Det är heller aldrig så att AI säger ”Hmm, jag är lite osäker på detta, men…” Den dundrar på och är väldigt övertygande i allt den gör.
Risken är således att AI till slut blir så duktig på det den gör att vi inte längre kan läsa igenom något och säga ”…nä, vänta nu här. Det där stämmer ju inte”. När AI blir bättre på att ljuga för oss så kommer vi inte att märka det överhuvudtaget, vilket är en skrämmande tanke.
Sist av allt vill jag bara säg att jag löste koden på Vigenere krypteringen själv, utan hjälp av AI, även om den faktiskt var en hjälp på vägen. Meddelandet:
”Tuow ts n bicy fkgceg sidsnmi ehnz md hvjhpn sxsx pygmy svmle bl zlp mrgrd os krnrlvxtoa. Ox dhbapo nbz fp sb kedy gu wzlik.” var faktiskt ”This is a very secret message that is hidden from plain sight by the means of encryption. It should not be so easy to solve”.
Lösenordet var ”ANGEL” inte ”APPLE” som CoPilot påstått.
Så. Med detta i åtanke så vill jag varna alla som kastat sig in i AI världen i hopp om att den ska fixa alla problem på jobbet och på fritiden. Tänk på att AI är otroligt duktiga på att ljuga. Dubbelkolla därför allt och lämna inte något åt slumpen. Använd helst inte AI tillsammans med viktiga uppgifter, eftersom det efterföljande arbetet med att korrekturläsa allt den hittar på kan visa sig ta mer tid än att göra uppgiften själv. 😊
Ha en riktigt bra dag så hörs vi snart igen.