Non senza di noi. Università e docenti che rifiutano i chatbot di sorveglianza
Description
A text string extruder can only perform one operation: autocomplete. It can take a structured collection of symbols as input and produce a structured collection of symbols as output. It is humans who attribute meaning to these symbols.
While a probable text string extruder cannot write an article, project or thesis itself, it can extrude text that is 'shaped like' an article, project or thesis.
What use is a system capable of producing plausible yet unreliable text? Such a system is almost exclusively useful for fraud, propaganda and pornography, and is completely useless in cases where correct output is required, as output that only appears to be a correct answer at first glance is insufficient.
It is useless and harmful in schools and universities, except as a subject of study.
Even if it worked, would anyone think of learning to drive by taking a taxi or going to the gym to watch a machine lift weights instead of doing it themselves?
Technology companies aim to extract value from services and data, replacing the original purpose of public education with corporate objectives and making students dependent on their platforms and products, as recent revelations confirm. De-skilling and dependence are intertwined objectives: users who have become incapable of writing by themselves, even at the most basic level, will be hostages to proprietary computer systems, however poor they may be. Companies aim for all human activities and relationships to be mediated by their products, rather than conducted directly with other human beings. De-skilling is functional to dependence, which in turn is functional to the surveillance, manipulation and control of users, and the extraction of the maximum amount each user is willing to pay at any given time.
Faced with products "steeped in surveillance, data theft, labor oppression, epistemic violence, and the monetization of every conceivable form or fraction of human life", " much of higher ed's managerial class has barely blinked" — in universities already well-trained to compete for private funding and engage in research whose framework, tone and even results are dictated by private funders — and now embrace 'a pedagogy of the inevitable', appearing "eager to embrace a set of tools whose leading use cases—predictive policing, military targeting, advertising, and porn—stand in profound contradiction to the values they claim to uphold" (Ricky D'Andrea Crano).
However, some are reacting to the evil of banality (Giuseppe Longo's term).
"We have been here before with tobacco, petroleum, and many other harmful industries who do not have our interests at heart and who are indifferent to the academic progress of our students and to the integrity of our scholarly processes" write Olivia Guest, Iris van Rooij, Barbara Müller and Marcela Suárez — scientists and university professors from the Netherlands — in an open letter to their universities on 27 June 2025. The letter, which has over 1,600 signatures, aims to stop the uncritical adoption of AI technologies in academia:
"The unfettered introduction of AI technology leads to contravention of the spirit of the EU Al act. It undermines our basic pedagogical values and the principles of scientific integrity. It prevents us from maintaining our standards of independence and transparency. And most concerning, AI use has been shown to hinder learning and deskill critical thought."
On 4 December 2025, the Department of Programming and Fundamental Computer Science at Paris 8 University unanimously voted to support and sign the Facing Generative AI: Conscientious Objection manifesto. Launched on 1 December 2025, it gathered the support of nearly 2,800 teachers and researchers in a couple of months. They all reject ecocidal systems based on ultra-proletarianised labour, disregard for human rights and extractivist and neocolonial relations.
Abstract in italiano
Un estrusore di stringhe di testo probabili può svolgere un’unica operazione, il completamento automatico: può prendere una collezione strutturata di simboli come input e può produrre una collezione strutturata di simboli come output. Ad attribuire un significato ai quei simboli sono gli esseri umani.
Un estrusore di stringhe di testo probabili non è in grado di scrivere un articolo, un progetto o una tesi di laurea, ma può estrudere un testo “fatto a forma di” articolo, progetto o tesi di laurea.
A cosa può servire un sistema in grado di produrre testo plausibile e inaffidabile? Un sistema simile è utile quasi solo per frodi, propaganda e pornografia, e del tutto inutilizzabile, invece, nei casi in cui si abbia bisogno di un output corretto e non sia sufficiente un output che abbia solo l'aspetto, a prima vista, di una risposta corretta.
Un sistema del genere è inutile e dannoso nelle scuole e nelle università, se non come oggetto di studio.
Se anche funzionasse, del resto, a chi mai verrebbe in mente di imparare a guidare prendendo un taxi o di andare in palestra a guardare una macchina che sollevi pesi al suo posto?
Lo scopo delle aziende tecnologiche è estrarre valore dai servizi e dai dati, sostituendo la finalità originaria dell’istruzione pubblica con gli obiettivi aziendali, e far sì che gli studenti diventino dipendenti – come confermano rivelazioni recenti – dalle loro piattaforme e dai loro prodotti. Dequalificazione e dipendenza sono obiettivi intrecciati: utenti divenuti incapaci di scrivere da soli, anche ai livelli più elementari, saranno ostaggi di sistemi informatici proprietari, dai quali, per quanto scadenti, dipenderanno. L'obiettivo delle aziende è che tutte le attività e le relazioni umane siano mediate dai loro prodotti o siano intrattenute direttamente con quelli, anziché con altri esseri umani: la dequalificazione è funzionale alla dipendenza e questa è, a sua volta, funzionale alla sorveglianza, alla manipolazione e al controllo degli utenti e all’estrazione da ciascun utente, in virtù della sorveglianza, della somma massima che questi sia disponibile, di volta in volta, a pagare.
Di fronte a prodotti “intrisi di sorveglianza, furto di dati, oppressione del lavoro, violenza epistemica e monetizzazione di ogni forma o frazione immaginabile della vita umana”, “gran parte della classe manageriale dell'istruzione superiore non ha battuto ciglio” – in università già ben addestrate a competere per finanziamenti privati e ad impegnarsi in ricerche delle quali i finanziatori privati dettino inquadramento, tono e perfino i risultati - e si è affrettata ad abbracciare “una pedagogia dell’inevitabile” e “una serie di strumenti i cui principali casi d'uso - polizia predittiva, targeting militare, pubblicità e pornografia - sono in profonda contraddizione con i valori che sostengono di difendere”.
Ma c’è anche chi, di fronte al male della banalità (l’espressione è di Giuseppe Longo), reagisce.
“Ci siamo già trovati in questa situazione”, scrivono Olivia Guest, Iris van Rooij, Barbara Müller e Marcela Suárez, scienziate e docenti universitarie dei Paesi Bassi, promotrici e prime firmatarie, il 27 giugno 2025 di una lettera aperta ai loro Atenei, con oltre 1.600 adesioni, per Fermare l'adozione acritica delle tecnologie di IA nel mondo accademico, che denuncia come l’introduzione incontrollata della tecnologia AI mini “i nostri valori pedagogici fondamentali e i principi di integrità scientifica”, impedisca “di mantenere i nostri standard di indipendenza e trasparenza”, ostacoli l'apprendimento e riduca la capacità di pensiero critico: "Ci siamo già trovati in questa situazione con il tabacco, il petrolio e molte altre industrie dannose".
Il 4 dicembre 2025, i membri del Dipartimento di programmazione e informatica fondamentale dell’Università di Parigi 8 hanno votato all’unanimità il loro sostegno e l’adesione al manifesto Di fronte all'IA generativa, obiezione di coscienza, che, lanciato il 1° dicembre 2025, ha raccolto, in un paio di mesi, l’adesione di quasi 2.800 docenti e ricercatori, che condividono il rifiuto di sistemi ecocidi, fondati su lavoro ultraproletarizzato, mancato rispetto dei diritti umani, conflitti d’uso (acqua, metalli, energia), relazioni estrattiviste e neocoloniali.
Files
Daniela Tafani - Non senza di noi. Università e docenti che rifiutano i chatbot di sorveglianza.pdf
Files
(101.6 kB)
| Name | Size | Download all |
|---|---|---|
|
md5:e4ab86128bc29d2c0c7aa807cf815612
|
101.6 kB | Preview Download |
Additional details
References
- Daniela Tafani, Non senza di noi. Università e docenti che rifiutano i chatbot di sorveglianza, preprint, 2026