Přední společnosti v oblasti umělé inteligence včetně OpenAI, Microsoftu, Googlu a Mety, se spojily s organizacemi Thorn a All Tech Is Human, aby předešly použití AI k vykořisťování na dětech. Tyto a další společnosti se zavázaly bránit vytváření a šíření obsahu, který mohl obsahovat vykořisťování a sexuální zneužívání dětí (CSAM).
Iniciativa zdůrazňuje význam spolupráce v AI průmyslu a ochranu dětí v online prostředí. Podle organizace Thorn bylo jen v USA v minulém roce nahlášeno přes 104 milionů podezřelých ze zneužívání, což jen ukazuje velikost problému a potřebu společného úsilí těmto incidentům předcházet.
Společnosti stojící za iniciativou pro ochranu dětí na internetu
Společnosti stojící za touto iniciativou si stanovily za cíl společnými silami zabránit vytváření sexuálně explicitního materiálu zahrnujícího děti a odstranit jej z vyhledávačů a sociálních sítí. Pokud by velké „AI společnosti“ s tímto problémem nic nedělaly, mohla by brzy umělá inteligence časem předčit orgány činné v trestném řízení a celý problém s vytvářením sexuálně škodlivého obsahu jen zhoršit.
Thorn a All Tech Is Human před nedávnem publikovaly dokument nesoucí název Safety by Design for Generative AI: Preventing Child Sexual Abuse obsahující strategie a opatření pro firmy k předejití zneužívání AI na dětech. V dokumentu se objevují také možné datové sady neobsahující nevhodný obsah.
Thorn podle magazínu Engadget žádá provozovatele velkých sociálních sítí a vyhledávačů, aby odstranily odkazy na webové stránky a aplikace, které umožňují zobrazení explicitních obrázků dětí. Zároveň také klade důraz na separaci dětských a dospělých obrázků v tréninkových datech pro AI, aby se předešlo jejich možné kombinaci a vytváření potenciálně nechtěného obsahu.
Některé společnosti už s tímto oddělením obrázků, videí a zvuku souhlasily, další společnosti přidávají vodoznaky k identifikaci obsahu generovaného AI. Ty se ale z pohledu bezpečnosti nezdají být extra spolehlivé, jelikož vodoznaky a metadata lze v dnešní době poměrně snadno odstranit.