Talmente brava da essere scambiata per un’intelligenza artificiale. La strana storia, del tutto possibile in tempi così caotici e in cui vero, verosimile e falso si sovrappongono senza che abbiamo troppi strumenti per distinguerli, è accaduta a una studentessa di lingue dell’università Federico II di Napoli. Bocciata a un esame scritto perché secondo i docenti il compito consegnato sfoggiava uno stile e conteneva alcuni indizi del possibile utilizzo di ChatGPT e simili per la sua stesura.

Lo racconta Fanpage.it, che ha anche sentito Rosanna Tecola, la studentessa: “Quando ho chiesto spiegazioni ai professori – ha spiegato alla testata - mi hanno detto che non ho superato l'esame perché a loro avviso il compito era stato realizzato con ChatGpt".

Al chatbot, secondo gli ultimi dati, inviamo qualcosa come 2,5 miliardi di prompt al giorno. Secondo Tecola “non puoi usare gli indicatori in maniera postuma. Scrivere bene non è un difetto". Quell’esame a scelta lo rifarà, dice, ma ci è rimasta male.

Eppure, a ben vedere, la questione esiste e in questo momento è posta in modo del tutto fiduciario: la parola di una persona contro le sensazioni di un’altra. Come si fa a distinguere un testo in tutto o in parte frutto dell’AI? E in fondo, alla stessa maniera delle domande che ci poniamo negli ambiti più squisitamente artistici o creativi, qual è la quota consentita di “aiuto” da parte di ChatGPT, se esiste una franchigia AI di questo tipo? In altre parole, un testo abbozzato e sistemato dall’AI, per esempio, è accettabile o meno?