O nas
Kontakt

Badania wykazały, że w 94% przypadków arkusze egzaminacyjne generowane przez sztuczną inteligencję pozostają niezauważone

Laura Kowalczyk

Nearly all submissions generated by artificial intelligence (AI) went undetected in a recent test of UK universities

Badanie wykazało, że wykrycie prac egzaminacyjnych generowanych przez sztuczną inteligencję jest praktycznie niemożliwe.

Prawie wszystkie zgłoszenia wygenerowane przez sztuczną inteligencję (AI) nie zostały wykryte podczas niedawnego testu systemów egzaminacyjnych brytyjskich uniwersytetów.

Prace wygenerowane przez AI otrzymały również średnio wyższe oceny w porównaniu do tych napisanych przez prawdziwych studentów, odkryli badacze z University of Reading. Opublikowali swoje odkrycia w czasopiśmie open-access PLOS ONE.

Sztuczna inteligencja udowodniła już, że jest w stanie zdawać egzaminy, co skłoniło niektóre szkoły i uniwersytety do zakazania studentom korzystania z dostępnych narzędzi opartych na sztucznej inteligencji, takich jak ChatGPT.

Jednak według nowego badania stosowanie tej zasady okazało się trudne.

Naukowcy przedstawili egzaminy napisane przez sztuczną inteligencję z pięciu różnych kursów w ramach studiów licencjackich z psychologii na uniwersytecie.

Odkryli, że 94 proc. tych zgłoszeń nie zostało wykrytych w badaniu przypadku, które nazwali „testem Turinga”.

Nazwa tego wskaźnika pochodzi od nazwiska brytyjskiego matematyka i informatyka Alana Turinga, który w 1950 r. zastosował tę metodę pomiaru zdolności maszyny do wykazywania zachowań inteligentnych, zbliżonych do zachowań człowieka.

„Niezwykle niepokojące”

Autorzy stwierdzili, że odkrycie jest „niezwykle niepokojące”, zwłaszcza że „treść odpowiedzi wygenerowanych przez sztuczną inteligencję” nie została zmodyfikowana przez badaczy.

„Ogólnie rzecz biorąc, nasz 6-procentowy wskaźnik wykrywalności prawdopodobnie przecenia naszą zdolność do wykrywania rzeczywistego wykorzystania sztucznej inteligencji do oszukiwania na egzaminach” – zauważyli w badaniu, dodając, że bardziej prawdopodobne jest, że uczniowie modyfikują dane wyjściowe sztucznej inteligencji, aby były mniej wykrywalne.

Co więcej, w 83,4 proc. przypadków prace przesłane przez sztuczną inteligencję uzyskały wyższe oceny w porównaniu z losowo wybraną grupą składającą się z takiej samej liczby egzaminów napisanych przez prawdziwych studentów.

Wyjątkiem był moduł, który wymagał bardziej abstrakcyjnego rozumowania, z czym sztuczna inteligencja może mieć trudności w porównaniu z prawdziwymi studentami.

„Wyniki „Testu Turinga” zachęcają globalny sektor edukacji do zaakceptowania nowej normalności i dokładnie to robimy na Uniwersytecie w Reading” – stwierdzili autorzy badania w oświadczeniu.

„Nowe zasady i zalecenia dla naszych pracowników i studentów uwzględniają zarówno ryzyko, jak i szanse, jakie stwarzają narzędzia wykorzystujące sztuczną inteligencję” – dodali.

W świetle tych ustaleń naukowcy wyrazili obawy dotyczące uczciwości akademickiej i zasugerowali, że nadzorowane egzaminy przeprowadzane w siedzibie uczelni mogłyby złagodzić ten problem.

Jednak w miarę jak narzędzia AI ewoluują i stają się coraz powszechniejsze w środowiskach zawodowych, uniwersytety mogą musieć poszukać sposobów na integrację AI z edukacją jako części „nowej normalności”.