Jag har sett vad AI kan göra, och det är dags att bli rädd

Inom mindre än 24 timmar var snacket på sociala medier i full gång. Med hjälp av en nyutvecklad programvara hade företaget OpenAI lanserat en ny applikation, Chat GPT, som tycks ta interaktion med artificiell intelligens till en ny nivå. Chat GPT svarar inte bara på frågor – den löser programmeringsutmaningar, hjälper dig att utforma ett nytt träningsprogram eller sammanfattar större mängder text på ett lättfattligt sätt. Jag har testat ChatGPT som hastigast och kan bara konstatera att för alla som arbetar inom universitetsvärlden är det dags att ta detta på allvar, nu genast.

Visst har vi sett liknande nyheter tidigare, men alla sådana applikationer som jag testat förut har varit ganska rudimentära i förhållande till den analytiska nivå som bedrivs (eller borde bedrivas) på en universitetsutbildning inom humaniora eller samhällsvetenskap. Därför har jag själv inte prioriterat utmaningen från AI, eftersom jag har fullt upp med problem att hantera i nuet. Men nu är det dags för ett varningsord.

Det finns fortfarande tydliga problem med applikationen. En Twitter-användare testade att fråga ChatGPT vem Herbert Tingsten var och fick ett svar som innehöll ett stort antal faktafel: enkla sakuppgifter som födelseår och födelseort stämde inte. Likaså nämndes att Tingsten skrivit flera böcker med icke-existerande titlar. Däremot hade boten rätt i ett värderande omdöme om Tingstens betydelse för svensk politisk debatt under 1900-talet.

När jag själv testar ChatGPT står det snabbt klart att denna programvara är extremt kompetent. Ju mer abstrakt eller analytisk fråga jag ställer, desto bättre tycks svaret bli. Om den har svårt att redogöra för enkla sakuppgifter kan den ge ett häpnadsväckande insiktsfullt svar om hur nationalismen påverkade den moderna historievetenskapens framväxt (se bild nedan). Kanske inte ett perfekt svar, men precis en sån typ av ordsallad med basic facts som studenter ofta kan använda för att bli godkända på enklare skrivuppgifter.

Än så länge är Chat GPT inte kapabel att sammanfatta resonemang med utgångspunkt i en specifik, avgränsad textmängd (till exempel litteraturlistan till en viss kurs). Jag lyckas inte få den att skriva en essä som på ett mer avancerat sätt sammanfattar och sedan jämför/värderar resonemang ur kurslitteraturen, ej heller som resonerar självständigt på en högre analytisk nivå.

Däremot är den fullt kapabel att utföra ”enklare” analytiska uppgifter för en universitetsstudent. Se exempelvis hur den sammanfattar innehållet i Emile Durkheims klassiker Självmordet.

Jag skulle alltså bedöma att ChatGPT redan i nuläget är kapabel att skaffa sig ett godkänt betyg på en del universitetsutbildningar med för låga krav på formalia (i form av källhänvisningar). Med ett mimimum av tillägg i form av akribi kommer en student kunna använda de här funktionerna för att fuska på ett sätt som är svårt att upptäcka för en lärare.

Utvecklingen går otroligt snabbt. För bara några månader sedan bedömde jag att AI skulle ha svårt att utföra mer analytiskt orienterade uppgifter på en humaniora-utbildning (eftersom svaren ofta var generella och inte specifikt relaterade till viss kurslitteratur till exempel), men det är rimligtvis bara en fråga om månader eller kanske något år innan AI även klarar detta.

Det här är alltså en revolution och den händer nu. För universitet och universitetslärare innebär det en akut utmaning. Det finns helt säkert fördelar och möjligheter i denna teknikutveckling. Men prio ett är att säkerställa att examinationsformerna utformas så att det inte går att fuska med hjälp av den nya generationens artificiella intelligens. Alla universitet, alla institutioner, alla lärarlag som ännu inte tagit fram en handlingsplan för hur man ska hantera lärande och examination med utgångspunkt i de utmaningar som AI ställer bör nog göra det nu, genast.

En del av dessa diskussioner kommer säkert handla om en återgång till handskrivna salstentor. Men även där finns skäl att lyfta ett varningens finger. Salstentor ställer ofta låga krav på formalia och akribi (t.ex. sidhänvisningar till litteraturen – såvida studenterna inte får ha med sig böckerna) och det skulle tala för att det är enklare för en student att fuska genom att smuggla in en mobiltelefon – en klocka eller annat tekniskt hjälpmedel som kan utföra AI-förfrågningar.

Avslutningsvis testar jag att fråga ChatGPT om AI kommer att användas för att fuska på prov. Svaret den ger gör mig bekymrad: är den inte mer intelligent än så? Eller tonar den ner riskerna för att friskriva sig själv från ansvar?

Annons

En reaktion till “Jag har sett vad AI kan göra, och det är dags att bli rädd

Kommentera

Fyll i dina uppgifter nedan eller klicka på en ikon för att logga in:

WordPress.com-logga

Du kommenterar med ditt WordPress.com-konto. Logga ut /  Ändra )

Twitter-bild

Du kommenterar med ditt Twitter-konto. Logga ut /  Ändra )

Facebook-foto

Du kommenterar med ditt Facebook-konto. Logga ut /  Ändra )

Ansluter till %s