OpenAI a publié un plan d'action politique décrivant de nouvelles mesures de sécurité que l'industrie de l'intelligence artificielle (IA) peut prendre pour empêcher l'utilisation de la technologie pour créer du matériel d'abus sexuel d'enfants.
« L'exploitation sexuelle des enfants est l'un des défis les plus urgents de l'ère numérique », a déclaré OpenAI dans son annonce du 8 avril. « L'IA change rapidement à la fois la manière dont ces préjudices émergent dans l'industrie et la façon dont ils peuvent être traités à grande échelle. »
Dans cette optique, la société a dévoilé son plan d'action politique, décrivant « une voie pratique pour renforcer les cadres de protection de l'enfance aux États-Unis à l'ère de l'IA. »
Le plan reflète et intègre les retours de plusieurs organisations de premier plan et d'experts de l'écosystème de la sécurité des enfants, notamment le National Center for Missing & Exploited Children (NCMEC), l'Attorney General Alliance — un groupe à but non lucratif de procureurs généraux d'État aux États-Unis — et Thorn, une organisation à but non lucratif dédiée à la défense des enfants contre les abus sexuels, selon le géant de l'IA.
« Aucune intervention unique ne peut relever ce défi à elle seule », a déclaré OpenAI. « Ce cadre rassemble des approches juridiques, opérationnelles et techniques pour mieux identifier les risques, accélérer les réponses et soutenir la responsabilisation, tout en veillant à ce que les autorités d'application restent fortes à mesure que la technologie évolue. »
Cette initiative intervient alors que les préoccupations se sont de plus en plus accrues concernant l'abus des outils d'IA, en particulier les fonctions de génération d'images, pour produire des images explicites de femmes et d'enfants, y compris des célébrités et des personnalités publiques.
Plus tôt en janvier, le régulateur britannique des communications, Ofcom, a été contraint de contacter d'urgence X et xAI « pour comprendre les mesures qu'ils ont prises pour se conformer à leurs obligations légales de protection des utilisateurs au Royaume-Uni », après que des rapports ont révélé que le chatbot IA d'Elon Musk, Grok, était utilisé pour créer et diffuser des images explicites d'enfants et de femmes dont les vêtements avaient été retirés numériquement.
Des préoccupations similaires ont été exprimées dans l'Union européenne, l'autorité italienne de protection des données avertissant les utilisateurs et les fournisseurs d'outils d'IA des risques pour les « droits et libertés fondamentaux » posés par les deepfakes générés par l'IA.
Pour répondre à ces préoccupations, OpenAI a déclaré avoir trois priorités clés : moderniser les lois pour lutter contre le matériel d'abus sexuel d'enfants généré et modifié par l'IA, améliorer le signalement et la coordination des fournisseurs pour soutenir des enquêtes plus efficaces, et intégrer des mesures de sécurité dès la conception directement dans les systèmes d'IA pour prévenir et détecter les abus.
« Ensemble, ces mesures permettent à l'industrie de traiter la sécurité des enfants plus tôt et plus efficacement », a déclaré la société dans sa déclaration du 8 avril. « En interrompant les tentatives d'exploitation plus tôt, en améliorant la qualité des signaux envoyés aux forces de l'ordre et en renforçant la responsabilité dans l'ensemble de l'écosystème, ce cadre vise à prévenir les préjudices avant qu'ils ne se produisent et à aider à garantir une protection plus rapide des enfants lorsque des risques émergent. »
OpenAI a déclaré qu'elle s'engage également à continuer de renforcer les protections pour empêcher l'utilisation abusive de ses systèmes, ainsi qu'à travailler en étroite collaboration avec des partenaires comme le NCMEC et les forces de l'ordre pour améliorer la détection et le signalement.
Dans une déclaration conjointe sur le plan de sécurité des enfants, les procureurs généraux d'État Jeff Jackson (de Caroline du Nord) et Derek Brown (de l'Utah), coprésidents du groupe de travail sur l'IA de l'Attorney General Alliance, ont déclaré qu'ils « accueillent ce plan comme une étape significative vers l'alignement des pratiques de sécurité des enfants du secteur technologique avec les réalités d'application auxquelles nos bureaux sont confrontés quotidiennement. »
Le duo a particulièrement souligné la reconnaissance par le cadre du fait que des protections efficaces pour l'IA générative (GenAI) nécessitent des défenses en couches — non pas un seul contrôle technique, mais une combinaison de détection, de mécanismes de refus, de supervision humaine et d'adaptation continue aux tendances émergentes d'utilisation abusive.
« Cela reflète ce que nous observons dans la pratique : la menace évolue constamment, et les solutions statiques sont insuffisantes », ont déclaré les procureurs généraux d'État.
L'annonce d'OpenAI a également été bien accueillie par Michelle DeLaune, présidente et directrice générale du NCMEC, qui a averti que la GenAI « accélère le crime d'exploitation sexuelle en ligne des enfants de manières profondément troublantes — abaissant les barrières, augmentant l'échelle et permettant de nouvelles formes de préjudice. »
DeLaune a ajouté qu'elle était « encouragée de voir des entreprises comme OpenAI réfléchir à la manière dont ces outils peuvent être conçus de manière plus responsable, avec des protections intégrées dès le départ. »
Pour que l'intelligence artificielle (IA) fonctionne correctement dans le cadre de la loi et prospère face aux défis croissants, elle doit intégrer un système de blockchain d'entreprise qui garantit la qualité et la propriété des données d'entrée — lui permettant de protéger les données tout en garantissant l'immutabilité des données. Consultez la couverture de CoinGeek sur cette technologie émergente pour en savoir plus sur les raisons pour lesquelles la blockchain d'entreprise sera l'épine dorsale de l'IA.
À regarder : Démonstration du potentiel de la fusion de la blockchain avec l'IA
Source : https://coingeek.com/openai-blueprint-targets-ai-enabled-child-exploitation/








