amazon

Använde stavningskontroll – anmäldes för AI fusk

Författare:

|

Datum:

|

Marley Stevens, student vid University of North Georgia i USA, anklagades enligt TV-kanalen Fox 5 Atlanta för plagiat efter att ha använt en programvara för grammatik och stavning som universitetet rekommenderat till sina studenter. Nu vill hon varna andra studenter för att “AI verkligen håller på att integreras i allt”.

Företaget bakom programvaran Grammarly hade nyligen lagt till generativa AI-funktioner i sin tjänst för att förbättra återkopplingen till studenter. Detta ledde till att universitetets verktyg för plagiatkontroll drog slutsatsen att hennes uppsats var skapad av AI, trots att hon hävdar att hon bara använde verktyget för att rätta stavfel och grammatik.

Blev underkänd och anmäldes för fusk

Uppsatsen som Stevens lämnade in för en kurs i straffrätt blev underkänd och läraren anmälde henne för fusk. Företaget bakom Grammarly har medgett att resultatet som kommer ut från deras tjänst kan misstas för generativ AI av externa verktyg och rekommenderar skolor och högskolor att utforma och följa tydliga riktlinjer för AI-användning.

Stevens blev chockad när hon anklagades för plagiat ”Jag har haft lärare som förut tvingade oss att installera det [Grammarly, reds. anmärkning] och skicka in en skärmdump som visar att vi hade gjort si eller så. Jag har skrivit mina uppsatser på exakt samma sätt genom hela college i ett Google Doc med mitt Grammarly-tillägg. Jag har aldrig haft några problem”, säger hon till Fox 5 Atlanta.

University of North Georgia säger att deras regler för användning av artificiell intelligens tydligt förklaras för studenterna i kursplanerna. Fortsättningsvis säger de att universitetets uppförandekod för studenter specifikt innehåller regler om felaktig användning av AI. Stevens uppmanar däremot universitetet att formulera en övergripande AI-policy i stället för att förlita sig på att enskilda lärare sätter gränsen för varje enskild kurs. Stevens genomgår nu en “akademisk prövotid” som sträcker sig fram till februari 2025.

Det saknas tillförlitliga metoder för att upptäcka AI-texter

I takt med att generativ AI blivit någonting som väldigt många använder och som blivit allmänt accepterat har många skolor och lärosäten desperat letat efter åtgärder som de kan sätta in för att förhindra fusk. Eftersom flest resurser har satts på språkteknologi som hanterar engelska kommer också de flesta exemplen från länder och lärosäten där engelska är akademiskt språk.

Det finns flera rapporter om universitet i engelskspråkiga länder som rapporterats använda sig av programvara som uppges kunna särskilja om en text skrivits av en person eller en AI. Träffsäkerheten hos dessa verktyg är dock något som har ifrågasatts.

Även här i Sverige menar Skolverket att det för närvarande inte finns några tillförlitliga verktyg som kan avgöra om en text har skrivits av en chattbot. Myndigheten avråder därför lärare från att använda inlämningsuppgifter som underlag för betygssättningen om läraren inte kan säkerställa innehållets tillförlitlighet.

En studie från Stanford University från april 2023 visade till och med att GPT-detektorer missbedömer texter skrivna av studenter som inte har engelska som modersmål. Enkelt uttryckt kategoriserade AI:n många texter som till 100% skrivna av en människa, som AI-genererade. Orsaken till detta var att elever som inte hade engelska som modersmål inte hade en tillräcklig variation av synonymer i sin språkanvändning och AI-detektorn misstog elevernas repetitiva språkbruk för en text skriven av en AI.

I juli 2023 stängde OpenAI, företaget bakom ChatGPT, också ned sin egen GPT-detektor. OpenAI erkände att verktyget hade en träffsäkerhet på bara 26 % för att upptäcka texter skrivna av AI, dessutom förväxlade verktyget 9 % av texterna som var skrivna av människor och trodde dessa var skrivna av en AI. 

90 svenska studenter blev varnade under 2023

SVT Småland rapporterade den 5 februari 2024 att akademiska institutioner kämpar med en betydande ökning av AI-fusk. Under 2023 varnades eller stängdes mer än 90 studenter av för att ha använt AI-drivna textgeneratorer som ChatGPT. Detta står i skarp kontrast till år 2022, då inga sådana fall registrerades.

Fredrik Heintz, AI-forskare vid Linköpings universitet, pekar precis som Skolverket på svårigheten att upptäcka sådant fusk. Han säger också att det inte finns någon tillförlitlig metod för att avgöra om generativ AI har använts, men han säger också att han inte tror att avskaffandet av inlämningsuppgifter är rätt väg att gå.

Han misstänker att ökningen av disciplinärenden kan bero på att universiteten ännu inte har anpassat sina regler till denna nya form av akademisk oredlighet. Eftersom reglerna ännu inte har anpassats kan fler studenter oavsiktligt bryta mot dem, vilket väntas leda till fler ärenden.

AI-förordningen

Användningen av programvara som ska motverka fusk bland studenter är en angelägen fråga. I april 2023 rapporterade Forum för Dataskydd om ett klagomål från en student i Nederländerna som slängdes ut från att skriva hemtentor. Detta berodde på att universitetets programvara för ansiktsigenkänning inte kunde känna igen dennes ansikte, då personen hade en mörkare hudton.

EU:s kommande förordning om AI kommer att klassificera AI-verktyg som används för att förhindra fusk bland studenter som ’hög risk’ (Se Bilaga III, punkt 3(bb), på sidan 222). Skolor får använda verktyg som utgör hög risk, men de måste uppfylla specifika kvalitetskrav för att vara lagliga. Syftet med klassificeringen är att skydda studenter från negativa konsekvenser som kan påverka deras framtida utbildningsmöjligheter och karriär. Det finns en risk att undermåliga programvaror kan begränsa studenters chanser att få arbete och försörja sig, vilket framgår i förordningens skäl 35.

Läs mer här: