Om ChatGPT och liknande verktyg
Den aktuella debatten har huvudsakligen utgått från ChatGPT, men det också finns flera verktyg av samma typ (GPT, Generative Pre-Trained Transformers), som är enkla att söka upp: här är några exempel. Det finns många fler verktyg, och även andra typer av AI än dessa.
Verktygen har naturligtvis inte primärt utvecklats för att kunna fuska med hemuppgifter. Betydligt vanligare är att de hjälper ägare till olika webbplatser, bloggar m.m. att hitta material och generera nya texter så att det blir lättare att hålla sajterna uppdaterade. De kan också användas för att t.ex. granska programkod.
Hur fungerar AI-verktygen?
ChatGPT använder sig sedan mars 2023 av GPT4, som är den senaste versionen av en s.k. språkmodell, som har utvecklats kraftigt under de senaste åren. Viktigt att ha i åtanke är att verktyget inte är en sökmotor, utan genererar text utifrån andra texter utifrån vad som språkligt och lingvistiskt verkar passa ihop. Kvaliteten på de instruktioner som man ger till modellen är avgörande för resultatets kvalitet. Man kan t.ex. ange omfång på svaret, ange stilnivåer, precisera frågan genom att ange att vissa saker ska uteslutas och vilka perspektiv som ska jämföras. Svaren kan också erhållas på olika språk och inom loppet av några sekunder kan en helt begriplig, sammanhängande text levereras. Resultatet kan vara imponerande. Särskilt frågor som innehåller, och kan besvaras med mer strikt regelstyrd, formelartad text – programkod, matematiska formler – har goda förutsättningar att få bra svar. Eftersom de svar som genereras är ny text undgår de för närvarande också eventuella textmatchningssystem, som t.ex. Ouriginal.
Begränsningar i tekniken
Det är alltså inte nödvändigtvis fakta som genereras, utan texten bygger på inomspråklig sannolikhet. Processen kan också leverera ett svar som innehåller helt falska påståenden, konstruerade för att uppfylla det som begärs i instruktionerna. Om man t.ex. ställer en fråga och ber ChatGPT att i svaret inkludera referenser till relevanta källor, kan resultatet bli en lista där tidskrifternas namn, årgång och volymnummer är korrekta, men där de angivna artiklarna visar sig saknas om man kontrollerar referenserna. De är alltså helt och hållet påhittade, och går inte heller att hitta någon annanstans på nätet, medan andra referenser kan visa sig vara korrekta.
De här verktygen har också andra begränsningar. Av naturliga skäl är de begränsade till det material som matats in i modellen, vilket innebär att tryckt material och digitala källor som inte är öppet tillgängliga saknas, vilket påverkar svarens kvalitet, troligen mer inom vissa områden än andra. Just ChatGPT saknar f.n. material som tillkommit senare än 2021, men det gäller inte andra verktyg.
Det ligger dock i självlärande systems natur att de blir bättre och bättre, i takt med att de får fler och fler användare, att mängden inmatat material stadigt växer, och att de samtidigt får någon sorts återkoppling om kvaliteten på svaren. Vissa verktyg kan t.ex. redan inkludera giltiga, om än otillräckliga referenser. Utvecklingen går rasande fort, och vi kan räkna med att de blir mer och mer kompetenta.
Kommande utveckling
Språkmodellerna fortsätter att utvecklas, men den stora utmaningen just nu verkar vara att integrera dem i de stora sökmotorerna – t.ex. satsar både Google (Google Search) och Microsoft (Bing) på detta – vilket skulle möjliggöra mer avancerade frågor och svar vid vanliga sökningar på nätet, samtidigt som det då ställs högre krav på att svaren verkligen blir tillförlitliga. Redan nu ser vi början på förstärkt AI-stöd i program såsom Word, PowerPoint, Excel och likande. Vi kan också inom kort förvänta oss förbättrade verktyg för automatisk textning av videos, liksom av vad som sägs i onlinemöten, i realtid.
Ökar risken för fusk?
Majoriteten studenter fuskar inte, och lärarnas fokus vid examination ligger på att bedöma studenternas lärande, och inte på att spana efter ev. fusk. Samtidigt vet vi att det förekommer försök till vilseledande vid examination. Hur vanligt det är med fusk via just AI är omöjligt att avgöra, men det finns belagda fall vid svenska universitet, inklusive Uppsala. Kännedom om olika sajter som frestar studenter att ta otillåtna genvägar sprids snabbt.
På sätt och vis är situationen inte ny. Att den enkla tillgången till AI-verktygen i sig skulle leda till mer fusk är inte självklart, men kanske kommer det att ersätta andra sätt att fuska. Sannolikt kommer ChatGPT inom kort inte längre att vara gratis (redan nu finns en betalversion), och detsamma gäller flera andra liknande verktyg, men det finns personer som är villiga att betala för färdiga arbeten. Tidigare har vi kunnat dra viss fördel av att svenska är ett litet språk, som inte varit lika intressant för aktörer som erbjuder färdiga texter, men AI-verktygens utveckling har redan förändrat den bilden.
Precis som tidigare är det inte alltid enkelt att avgöra var gränsen går mellan att en student enbart förhåller sig otillräckligt självständigt till ett material eller en frågeställning, resp. att studenten medvetet fuskar. Här ligger kanske den största utmaningen med de AI-baserade verktygen: studenterna behöver veta hur och när verktygen kan fungera som stöd för lärandet, och när de måste lämna dem bakom sig för att kunna visa vad de verkligen har lärt sig.
En kritisk punkt är att verktygen i dagsläget är på väg att bli en integrerad del av de vanliga sökmotorer och program som används dagligen av oss alla. Risken är då att gränsen mellan vad som är tillåtet och otillåtet vad gäller skriftliga uppgifter blir mindre tydlig. Här har både universitetet och enskilda lärare ett stort ansvar för att arbeta förebyggande.