Un po’ come accaduto tanti anni fa sui social network, anche i colossi che stanno sviluppando le piattaforme di intelligenza artificiale – e che in molti casi sono le stesse che all’epoca lanciarono i social, vedi al pachiderma Meta – arrivano mano a mano a occuparsi di bambini e adolescenti. Per cercare di contenere una magnitudo di conseguenze senza dubbio più devastante a di quella che negli ultimi vent’anni hanno scatenato Facebook e compagnia. Proprio Meta, per esempio, starebbe lavorando a nuove linee guida per i suoi chatbot con l’obiettivo di prevenire “conversazioni inappropriate con i bambini”. Una mossa anticipata da un’inchiesta di Business Insider e che arriverebbe, senza troppe sorprese, dopo un’inchiesta firmata lo scorso agosto da Reuters. In quel report si rivelavano contenuti inquietanti a loro volta rinvenuti in un documento interno battezzato GenAI: Content Risk Standards: erano in pratica le vecchie linee guida secondo le quali i sistemi potevano “coinvolgere un bambino in conversazioni romantiche o sensuali” aprendo alla possibilità di flirt e roleplay con minori. Oltre che fornire come output una lunga serie di altri atteggiamenti impropri come ad esempio diffondere false informazioni mediche.
Da Meta a OpenAI: tra controlli parentali e responsabilità delle IA
In un singolare riproporsi di quanto accaduto anni fa con i social network, le big tech corrono ai ripari: Meta starebbe rivedendo le regole del suo chatbot do…






