"Rendere il contenuto generato da AI più umano"
"Rendere il contenuto generato da AI più umano"
Prendiamo sul serio l'etica dell'IA. In questa pagina spieghiamo chiaramente cosa sosteniamo, quali salvaguardie adottiamo e quale uso è previsto dei nostri software.
Chiarezza: usare i nostri strumenti per arrecare danno a sé o agli altri è sbagliato. Non approviamo usi non etici di sistemi di IA. Questa pagina spiega cosa è consentito e cosa no. Prima di tutto, consulta i nostri Termini di servizio (in particolare la sezione "Uso vietato").
Abbiamo lanciato Undetectable AI con un obiettivo costante: aiutare le persone a creare contenuti che suonino autentici.
L''IA può essere (ed è) usata per equilibrare le opportunità di chi è svantaggiato.
Oggi un piccolo imprenditore senza budget per un copywriter marketing può usare l'intelligenza artificiale per quel ruolo.
Il problema è che spesso la scrittura IA è debole. Se segui i modelli linguistici grandi, capisci. L'umanizzazione rende il testo più umano.
Il titolare di una piccola impresa che non poteva competere? Ora può.
Chi non sa digitare e usa l'IA per comunicare non è più limitato a "sembrare ChatGPT".
Sono solo alcuni casi d'uso che ci danno speranza e ci lasciano la coscienza tranquilla.
Il nostro umanizzatore è potente. Abbiamo visto usi etici e non. Undetectable non sostituisce i copywriter; aiuta chi non ne ha.
Qui definiamo la nostra posizione etica su tutti i prodotti — soprattutto i più controversi — e le nostre riflessioni su regolazione, salvaguardie e governance.
Il nostro primo prodotto di punta, l'umanizzatore IA, è il più popolare. Un algoritmo riscrive il testo come farebbe un essere umano; il testo umanizzato viene rilevato meno spesso come generato da IA.
Gli utenti vogliono evitare un tono rigido o robotico. Ci sono buone e cattive intenzioni. Quali sono gli usi etici e consentiti del nostro umanizzatore? Alcuni esempi nella tabella seguente:
Uso accettabile
Uso inaccettabile
Ogni uso accettabile deve rientrare in "ogni volta che l'uso di testo IA non è vietato". L'umanizzatore deve migliorare contenuto e comunicazione — costruire fiducia, non tradirla.
Detto questo, ci sono casi di aggiramento del rilevamento che riteniamo consentiti.
Etico / Consentito
Non etico / Non consentito
Nel primo caso non c'è "violazione grave della fiducia". Nel secondo sì, e c'è anche aggiramento delle policy "niente IA" — è sbagliato.
Abbiamo utenti che devono creare contenuti non segnati come IA; l'IA è consentita ma serve qualità umana.
Quando la gente crede che un contenuto sia IA (anche se non lo è), si fida meno.
Ricerca del Istituto di Norimberga per le decisioni di mercato (NIM): il contenuto descritto come fatto da IA era percepito più negativamente dello stesso presentato come umano. Le persone cliccano meno su prodotti in annunci generati da IA.
Ci sono parole e stili associati all'IA — ad esempio la lineetta "—" o parole come "delve" o "realm".
Va più a fondo. Abbiamo identificato centinaia di schemi tipici del testo IA.
Anche gli umani mostrano questi schemi. Molti autori preferiscono "umanizzare" piuttosto che cambiare tutto lo stile — per mantenere fiducia.
Come indicato nei nostri Termini di servizio, non consentiamo alle persone di "utilizzare in modo automatizzato il sistema, ad esempio con script per commenti o messaggi, data mining, robot o strumenti simili di raccolta dati".
Abbiamo bannato oltre 7.000 utenti per spam. I chatbot usano la nostra API di umanizzazione ma sono etichettati e non si fingono umani.
Le automazioni non approvate sono facili da sanzionare. Con sistemi IA agentici (es. clawdbot) tolleranza zero se bot si presentano come umani. Monitoriamo.
Non tolleriamo mai l'imbroglio. Il team di moderazione controlla le registrazioni .edu.
La privacy conta; non accusiamo se c'è dubbio ragionevole. Alcuni studenti useranno l'IA per i saggi. Se sei studente: esternalizzare tutto il pensiero all'IA ti danneggia.
A volte si dice che il nostro software "facilita l''imbroglio". L'imbroglio è sintomo di un problema più grande. Il software aiuta anche usi etici e autentici.
Che un malintenzionato possa abusare non annulla gli usi positivi dell'umanizzatore.
Siamo aperti al dialogo con il mondo accademico e vogliamo ridurre i danni.
Ci sono studenti che usano l'umanizzatore non per imbrogiare ma per proteggersi da false accuse di rilevamento IA (falsi positivi). Ne parleremo nella sezione detector.
Rileviamo contenuti automatizzati e bot e registrazioni .edu. Controlli interni di moderazione applicano le policy. Le limitazioni riguardano soprattutto la privacy.
La privacy cede solo se la sicurezza pubblica è in pericolo diretto o se un ordine del tribunale USA lo richiede. L''applicazione mira soprattutto a reati o danno fisico diretto.
La divulgazione è multifattoriale; il fattore principale è l'obbligo (policy interne, norme, leggi, TOS).
Non crediamo che tutti siano moralmente obbligati a dichiarare l''uso di IA.
Senza accordo di governance IA né obbligo legale, non c''è a nostro avviso dovere morale di divulgare.
Per chiarezza, manteniamo lo standard morale delle "violazioni gravi della fiducia."
Non è una violazione grave della fiducia
Qualcuno compone con IA, verifica, revisiona, mette competenza e pubblica a suo nome senza dichiarare l'IA.
È una violazione grave della fiducia
Qualcuno chiede a un chatbot un articolo su XYZ senza competenza, senza revisione, e lo pubblica come esperto.
Per la divulgazione dell'IA, per noi conta il contesto. Alcuni utenti dichiarano volontariamente tutti gli strumenti, altri no. Contesto e modalità d'uso determinano l'eticità.
Sosteniamo la governance IA; ogni azienda dovrebbe averla. Senza policy interne sull'uso dell'IA (divulgazione, casi ammessi/vietati) c'è un punto cieco.
Dati errati dagli strumenti IA o dipendenti che espongono dati a sistemi non sicuri — attribuire effetti positivi e negativi è logico. Gli strumenti sono nuovi; alcuni non riflettono su cosa condividono.
La policy esterna (uso consentito o meno dello strumento) è definita nei nostri Termini di servizio. Internamente manteniamo governance IA in tutti i reparti.
Il nostro secondo strumento più usato è il rilevatore di testo IA. Come per l'umanizzatore, ci sono usi corretti e scorretti.
Il rilevamento testuale attuale non basta da solo a escludere in modo oggettivo l'uso dell'IA in un testo con certezza assoluta. I rilevatori moderni (incluso il nostro) analizzano struttura e sintassi.
La percentuale IA è una probabilità. Come nella stilometria, è un punto di partenza per indagini — non prova unica di frode.
Questi esempi illustrano:
Speriamo che questi esempi chiariscano: il rilevatore deve essere uno strumento complementare in un'indagine. Una sola segnalazione non è prova oltre ogni ragionevole dubbio.
In indagini accademiche o professionali il rilevamento deve essere prova secondaria o terziaria. Un punteggio solo non basta.
All'inizio modello "a consenso" (2023): 8 modelli che imitavano i grandi rilevatori.
Alcuni modelli skewavano il consenso (5/8 = probabilmente IA).
Abbiamo rimosso modelli imprecisi con ML/R&D crescente.
Oggi un punteggio aggregato, più strati; evita confusione con altri tool che cambiano beta.
Non volevamo un sostituto in tempo reale di altri rilevatori. "Scatola nera" diventa "comprensibile" e "quantificabile".
Entropia linguistica e perplessità come metriche.
LLM prevedibili a livello token; perplessità spesso più bassa.
Strumenti come il nostro umanizzatore possono ingannare i rilevatori.
I rilevatori sono fallibili; utili ma non oracoli. Non approviamo accuse basate solo sul rilevamento.
Meglio un rilevatore affidabile che niente — conta l'uso e la comprensione.
Umanizzazione e rilevamento hanno ruoli diversi. È chiaro che il testo generato da IA è molto meno pericoloso di altre modalità di contenuto IA.
Studiamo la frode IA: prevenzione, rilevamento, rischi reali di immagini, video e audio.
Non produrremo né tollereremo deepfake indetectabili. Dal 2024 progettiamo strumenti di rilevamento — focus TruthScan, organizzazione sorgente per immagine, audio e video.
A differenza del testo, i media offrono più dati da analizzare. I nostri team possono risolvere il dilemma del rilevamento.
Undetectable AI e TruthScan hanno reparti dedicati; la priorità è aiutare TruthScan a limitare i danni dei deepfake.
Il progetto TruthScan è nato dal desiderio di aiutare e risolvere problemi reali. Ogni abbonato Undetectable finanzia la lotta di TruthScan contro i deepfake dannosi.
Obiettivo continuo: crescere, imparare e contribuire a un mondo migliore per tutti.