Dalla polemica sugli articoli scritti con chatbot alla difficoltà concreta di distinguere tra umano e artificiale: il vero tema non è la tecnologia, ma la trasparenza.

di Marco Naponiello per POLITICADEMENTE
MONDO ANNO DOMINI 2026 – L’uso dell’intelligenza artificiale nella produzione di contenuti apre interrogativi etici e professionali nel mondo dell’informazione. Tra casi controversi e strumenti di rilevamento poco affidabili, emerge una verità scomoda: oggi è quasi impossibile distinguere con certezza un testo umano da uno generato o assistito da IA. E allora la questione si sposta sulla responsabilità e sulla correttezza verso il lettore.
Negli ultimi mesi il dibattito sull’uso dell’intelligenza artificiale nel giornalismo si è fatto sempre più acceso. Alcuni casi, anche clamorosi, hanno acceso i riflettori su articoli scritti – in tutto o in parte – con chatbot, spesso senza che il lettore ne fosse informato. Da qui polemiche, richiami interni e una domanda che attraversa redazioni e opinione pubblica: dove finisce il lavoro del giornalista e dove inizia quello della macchina?
La questione, però, rischia di essere posta male. Non si tratta solo di stabilire se un testo sia stato scritto da un essere umano o da un’intelligenza artificiale. Il punto è che, nella maggior parte dei casi, questa distinzione è ormai sfumata, se non addirittura impraticabile.
Oggi esistono strumenti che promettono di riconoscere contenuti generati da IA, ma la loro affidabilità è tutt’altro che assoluta. Possono sbagliare, segnalare come artificiali testi umani o essere facilmente aggirati con piccole modifiche. E qui si apre una zona grigia enorme: basta intervenire su un testo generato, adattarlo, personalizzarlo, per renderlo indistinguibile da uno scritto autonomamente.

Non solo. Anche il criterio stilistico – un tempo considerato indicativo – perde forza. Un testo “troppo perfetto”, lineare, privo di sbavature, può far pensare a un’origine artificiale. Ma quanti professionisti, oggi, scrivono già seguendo schemi standardizzati, magari proprio per esigenze editoriali? E quante intelligenze artificiali sono ormai in grado di simulare imperfezioni, variazioni di tono, perfino tratti personali?
La verità è che non esiste, e probabilmente non esisterà, un metodo infallibile per distinguere tra umano e artificiale. Anche perché ogni risposta generata da un chatbot è, per sua natura, diversa e adattata al contesto. E ogni autore umano può rielaborare, correggere, integrare.
In questo scenario, inseguire la “caccia all’IA” rischia di essere un esercizio sterile. Il vero nodo è un altro: la responsabilità.
Nel giornalismo, ciò che conta non è tanto lo strumento utilizzato, quanto il risultato finale. Le informazioni sono verificate? Le fonti sono attendibili? Il contenuto è corretto, equilibrato, comprensibile? E soprattutto: il lettore è messo nelle condizioni di sapere come quel contenuto è stato prodotto?
È qui che entra in gioco la trasparenza. Non come obbligo formale, ma come scelta etica. Dire se e come si è fatto uso dell’intelligenza artificiale non indebolisce il lavoro giornalistico, lo rafforza. Perché sposta il focus dal sospetto alla fiducia.
Il rischio, altrimenti, è quello di una doppia morale: da un lato la condanna pubblica dell’uso dell’IA, dall’altro il suo impiego silenzioso, magari diffuso ma non dichiarato. Una contraddizione che finisce per minare la credibilità dell’intero sistema informativo.
L’intelligenza artificiale, piaccia o meno, è ormai uno strumento destinato a restare. Può essere un supporto utile, anche potente, ma non può sostituire la responsabilità, il senso critico e l’etica di chi fa informazione.
Il punto, allora, non è capire se un testo è stato scritto da una macchina. Il punto è sapere se chi lo firma se ne assume davvero la responsabilità.
Mondo 9 aprile 2026






