Stai utilizzando Internet Eplorer: è un browser molto vecchio, non sicuro, e non più supportato neanche da Microsoft stessa, che l'ha creato.

Per favore utilizza un browser moderno come Edge, Firefox, Chrome o uno qualunque degli altri a disposizione gratuitamente.

Vengono troppo spesso considerati solo i dati, senza ragionare su un tema molto più delicato

Magari avete letto da qualche parte titoli che dicono che l’AI è sotto processo perché imbottisce i giovani di fake news. Il che non è vero, a mio parere, a meno non se si considerano solo i dati senza ragionarci su un tema molto delicato. Vado comunque subito alla notizia.

La Federal Trade Commission ha aperto un’inchiesta su sette colossi dell’intelligenza artificiale (Google, Meta, OpenAI, Character.AI, xAI, Anthropic e Snap) per capire come testano i loro chatbot, come controllano i rischi di disinformazione e come proteggono bambini e adolescenti che li usano come confidente digitale. Attenzione (dettaglio non marginale) è un “test live” fatto dall’FTC, non sono sessioni provocatorie o Deep Research con prompt estremi: l’agenzia ha chiesto alle aziende report dettagliati, metriche, policy interne, spiegazioni su come misurano e mitigano i rischi. È una mossa importante, perché i chatbot possono dire falsità, e quando lo fanno lo fanno con un tono che sembra scritto dal manuale della Treccani. Tuttavia, attenzione: non ci sono indagini su come vengono usati i chatbot (anche perché già i bambini non dovrebbero usarli, e sugli adolescenti ci vuole il consenso dei genitori). In ogni caso, il tema che mi interessa sono le fake news.