Юридическая фирма по делам о телесных повреждениях в Сиэтле, штат Вашингтон. Бесплатная оценка дела 206-335-3880
19 мая 2024
Недавний отчет Интернет-обсерватории Стэнфордского университета вызвал тревогу по поводу нового потока сексуальное насилие над детьми материал, созданный искусственным интеллектом, который угрожает сокрушить существующие власти. В докладе подчеркиваются серьезные проблемы, стоящие перед Национальным центром по делам пропавших и эксплуатируемых детей. (НКМЭК) в борьбе с этой растущей угрозой.
За последний год достижения в области технологий искусственного интеллекта облегчили преступникам создание откровенных изображений детей. Эти разработки значительно увеличили объемы детский сексуальный материал онлайн, что усложняет усилия организаций, которым поручено защищать детей и преследовать правонарушителей.
CyberTipline, отвечающий за все отчеты о (сексуальное насилие над детьми материал) CSAM онлайн и является важным инструментом для правоохранительных расследований. Однако ситуация уже напряжена из-за большого количества неполных или неточных отчетов. Учитывая, что небольшой штат сотрудников изо всех сил старается не отставать, ожидается, что добавление высокореалистичного контента, созданного искусственным интеллектом, усугубит эти проблемы.
«Почти наверняка в ближайшие годы Tipline будет переполнен очень реалистично выглядящим контентом с искусственным интеллектом, из-за чего правоохранительным органам будет еще труднее выявлять реальных детей, которых необходимо спасти», — сказала Шелби Гроссман, одна из авторы отчета.
Эта новая сфера преступности все еще определяется законодателями и правоохранительными органами, что еще больше усложняет борьбу с ней. По мнению исследователей, изображения CSAM, созданные ИИ, являются незаконными, если они содержат реальных детей или используют изображения реальных детей для обучения данных. Однако искусственно созданные изображения, на которых не изображены реальные люди, потенциально могут быть защищены в рамках свободы слова, что представляет собой юридическую серую зону, которая усложняет правоприменение.
Общественное возмущение распространением в Интернете изображений сексуального насилия над детьми стало очевидным во время недавних слушаний с руководителями крупных технологических компаний, включая Meta, Snap, TikTok, Discord и X. Законодатели раскритиковали эти компании за то, что они не делают достаточно для защиты молодежи. дети онлайн.
В ответ NCMEC выступает за принятие закона об увеличении финансирования и обеспечении доступа к более передовым технологиям. Исследователи из Стэнфорда, которым был предоставлен доступ к интервью с сотрудниками NCMEC и их системами, выделили уязвимости и устаревшие системы, которые нуждаются в срочном обновлении.
«С годами сложность сообщений и тяжесть преступлений против детей продолжают ухудшаться. Поэтому использование новых технологических решений во всем процессе CyberTipline приводит к тому, что больше детей оказывается под защитой, а правонарушители привлекаются к ответственности».
В отчете Стэнфорда показано, что менее половины всех сообщений, поступивших в CyberTipline в 2022 году, были «действительными» из-за недостаточности информации от компаний, сообщающих отчеты, или быстрого распространения изображений в Интернете, что приводило к множеству дублирующихся отчетов. Эта неэффективность усугубляется возможностью в системе подсказок отмечать контент как потенциальный мем, которая часто не используется.
За один день в начале этого года CyberTipline получил рекордный миллион сообщений о CSAM, многие из которых были связаны с изображением мема, широко распространенного для выражения возмущения, а не злого умысла. Несмотря на безобидный характер этих сообщений, они по-прежнему требовали значительных ресурсов расследования.
Тенденция к увеличению количества сообщений, вероятно, будет ухудшаться с распространением контента, созданного искусственным интеллектом. «1 миллион одинаковых изображений — это достаточно сложно, миллион отдельных изображений, созданных ИИ, сломал бы их», — Алекс Стамос, один из авторов Стэнфордского отчета.
NCMEC и его подрядчики сталкиваются с ограничениями на использование поставщиков облачных вычислений, требуя от них хранить изображения локально. Это ограничение ограничивает способность организации создавать и использовать специализированное оборудование, необходимое для создания и обучения моделей ИИ, которые помогут в расследованиях. Кроме того, у организации нет технологии, позволяющей широко использовать программное обеспечение для распознавания лиц для идентификации жертв и правонарушителей, при этом большая часть обработки отчетов по-прежнему выполняется вручную.
По мере усиления борьбы с CSAM, созданным искусственным интеллектом, потребность в надежных и адаптируемых решениях становится все более острой. Борьба NCMEC за защиту детей зависит от его способности развиваться вместе с возникающими технологическими угрозами, гарантируя, что ни один ребенок не останется уязвимым для эксплуатации.
Если вы или кто-то из ваших знакомых подверглись сексуальному насилию в детстве и желаете подать в суд, наши опытная команда здесь, чтобы помочь. Связаться с нами сегодня по телефону (206) 335-3880 или (646)-421-4062. на конфиденциальную консультацию и сделать первый шаг к восстановлению справедливости и урегулированию ситуации.
Комментарии будут одобрены до появления.
03 февраля 2025
Если вы получили травму в результате несчастного случая, вызванного снегопадом или обледенением, крайне важно знать свои законные права. Адвокаты Oshan & Associates по несчастным случаям, связанным со снежной бурей в Сиэтле специализируемся на делах о телесных повреждениях
11 января 2025
22 декабря 2024
Информация, представленная на этом сайте, включая все записи блогов, статьи и другой контент, предназначена только для информационных целей и не должна толковаться как юридическая консультация. Никакие отношения адвокат-клиент не формируются при доступе или использовании этого сайта или его контента.
Подпишитесь, чтобы получать последние новости о несчастных случаях в штате Вашингтон, статьи о самопомощи и многое другое…
© 2025 Oshan & Associates. Мы боремся за раненых!