OpenAI опубликовала политический план, описывающий новые меры безопасности, которые может принять индустрия искусственного интеллекта (ИИ) для предотвращения использования технологии для создания материалов сексуального насилия над детьми.
«Сексуальная эксплуатация детей является одной из самых неотложных проблем цифровой эпохи», — заявила OpenAI в своем объявлении от 8 апреля. «ИИ быстро меняет как то, как эти угрозы возникают в отрасли, так и то, как с ними можно бороться в масштабе».
Имея это в виду, компания представила свой политический план, описывающий «практический путь вперед для укрепления рамок защиты детей в США в эпоху ИИ».
План отражает и включает отзывы нескольких ведущих организаций и экспертов в экосистеме безопасности детей, включая Национальный центр по делам пропавших без вести и эксплуатируемых детей (NCMEC), Альянс генеральных прокуроров — некоммерческую группу генеральных прокуроров штатов в Соединенных Штатах — и Thorn, некоммерческую организацию, занимающуюся защитой детей от сексуального насилия, по словам гиганта ИИ.
«Ни одна отдельная мера не может решить эту проблему в одиночку», — заявила OpenAI. «Эта структура объединяет юридические, операционные и технические подходы для лучшего выявления рисков, ускорения реагирования и поддержки подотчетности, обеспечивая при этом сохранение силы правоприменительных органов по мере развития технологий».
Этот шаг предпринят на фоне растущей обеспокоенности по поводу злоупотребления инструментами ИИ, особенно функциями генерации изображений, для создания откровенных изображений женщин и детей, включая знаменитостей и общественных деятелей.
Ранее в январе коммуникационный регулятор Великобритании Ofcom был вынужден срочно связаться с X и xAI «чтобы понять, какие шаги они предприняли для соблюдения своих юридических обязанностей по защите пользователей в Великобритании», после того как появились сообщения о том, что ИИ-чатбот Илона Маска Grok использовался для создания и распространения откровенных изображений детей и женщин с цифровым удалением одежды.
Аналогичная обеспокоенность была высказана в Европейском союзе, где орган по защите данных Италии предупредил пользователей и поставщиков инструментов ИИ о рисках для «основных прав и свобод», создаваемых дипфейками с использованием ИИ.
Для решения таких проблем OpenAI заявила, что у нее есть три ключевых приоритета: модернизация законов для борьбы с материалами сексуального насилия над детьми, созданными и измененными с помощью ИИ, улучшение отчетности и координации провайдеров для поддержки более эффективных расследований, а также встраивание мер безопасности непосредственно в системы ИИ для предотвращения и обнаружения злоупотреблений.
«Вместе эти шаги позволяют отрасли решать вопросы безопасности детей раньше и более эффективно», — говорится в заявлении компании от 8 апреля. «Прерывая попытки эксплуатации раньше, улучшая качество сигналов, отправляемых правоохранительным органам, и укрепляя подотчетность во всей экосистеме, эта структура направлена на предотвращение вреда до того, как он произойдет, и помогает обеспечить более быструю защиту детей при возникновении рисков».
OpenAI заявила, что также привержена продолжению укрепления мер защиты для предотвращения злоупотребления своими системами, а также тесному сотрудничеству с партнерами, такими как NCMEC и правоохранительные органы, для улучшения обнаружения и отчетности.
В совместном заявлении по поводу плана безопасности детей генеральные прокуроры штатов Джефф Джексон (из Северной Каролины) и Дерек Браун (из Юты), сопредседатели Целевой группы по ИИ Альянса генеральных прокуроров, заявили, что они «приветствуют этот план как значимый шаг к согласованию практик безопасности детей в технологическом секторе с реалиями правоприменения, с которыми сталкиваются наши офисы каждый день».
Пара особо отметила признание в структуре того, что эффективные меры защиты генеративного ИИ (GenAI) требуют многоуровневой защиты — не одного технического контроля, а комбинации обнаружения, механизмов отказа, человеческого надзора и постоянной адаптации к новым тенденциям злоупотреблений.
«Это отражает то, что мы видим на практике: угроза постоянно развивается, и статичных решений недостаточно», — заявили генеральные прокуроры штатов.
Объявление OpenAI также приветствовала Мишель ДеЛон, президент и генеральный директор NCMEC, которая предупредила, что GenAI «ускоряет преступление онлайн-сексуальной эксплуатации детей глубоко тревожными способами — снижая барьеры, увеличивая масштаб и обеспечивая новые формы вреда».
ДеЛон добавила, что она «рада видеть, как такие компании, как OpenAI, размышляют о том, как эти инструменты могут быть разработаны более ответственно, с мерами защиты, встроенными с самого начала».
Для того чтобы искусственный интеллект (ИИ) правильно работал в рамках закона и процветал перед лицом растущих вызовов, ему необходимо интегрировать корпоративную систему блокчейна, которая обеспечивает качество и право собственности на вводимые данные, позволяя сохранять данные в безопасности, а также гарантируя неизменность данных. Ознакомьтесь с материалами CoinGeek об этой новой технологии, чтобы узнать больше о том, почему корпоративный блокчейн станет основой ИИ.
Смотрите: Демонстрация потенциала слияния блокчейна с ИИ
Источник: https://coingeek.com/openai-blueprint-targets-ai-enabled-child-exploitation/








