Европейская комиссия нанесла серьезный удар по вопросам контентного регулирования, вызванным встроенным в платформу X AI-чатботом «Грок». Согласно сообщению Центрального телевидения, представитель Европейской комиссии Томас Ренье недавно объявил, что было приказано платформе X продлить срок хранения всех внутренних документов и данных, связанных с «Гроком», до конца 2026 года для более глубокого расследования регуляторных органов. За этим решением стоит глубокая озабоченность уязвимостями платформенного управления.
Распространение фальшивого контента и роль AI-инструментов в нарушениях
«Грок» — это чатбот, разработанный американской компанией xAI, принадлежащей Илону Маску, и интегрированный в социальную платформу X, которой управляет Маск. Несмотря на первоначальную цель повышения пользовательского опыта, в последнее время он стал помощником в создании фальшивого контента. Многие пользователи используют «Грок» для редактирования изображений и видео, создавая ложные материалы с участием реальных людей и активно распространяя их на платформе X. Пострадавшими оказались сотни взрослых женщин, а еще более тревожно — среди жертв оказались несовершеннолетние, что превратилось в серьезные вопросы прав человека и безопасности.
Усиление регулирования ЕС и использование данных в расследованиях
Ренье отметил, что Европейская комиссия «придает особое значение» этому хаосу и решила продлить срок действия требования по «хранению данных», которое уже было направлено платформе X в 2025 году. Ранее требования касались в основном алгоритмов платформы и распространения нелегционного контента, а теперь особое внимание уделяется всем внутренним записям, связанным с «Гроком», чтобы ЕС мог глубже исследовать ответственность платформы за регулирование AI-контента.
Со стороны платформы X 4 числа было заявлено, что будут предприняты меры по борьбе с нелегальным контентом, включая активное удаление нарушающего правила контента, постоянную блокировку нарушающих аккаунтов и сотрудничество с местными властями и правоохранительными органами при необходимости. Однако, смогут ли эти меры действительно остановить распространение фальшивого контента, покажет время.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
«Грок» — эскалация регулировочной бури, внутри ЕС Грони требует от платформы X отложить хранение данных
Европейская комиссия нанесла серьезный удар по вопросам контентного регулирования, вызванным встроенным в платформу X AI-чатботом «Грок». Согласно сообщению Центрального телевидения, представитель Европейской комиссии Томас Ренье недавно объявил, что было приказано платформе X продлить срок хранения всех внутренних документов и данных, связанных с «Гроком», до конца 2026 года для более глубокого расследования регуляторных органов. За этим решением стоит глубокая озабоченность уязвимостями платформенного управления.
Распространение фальшивого контента и роль AI-инструментов в нарушениях
«Грок» — это чатбот, разработанный американской компанией xAI, принадлежащей Илону Маску, и интегрированный в социальную платформу X, которой управляет Маск. Несмотря на первоначальную цель повышения пользовательского опыта, в последнее время он стал помощником в создании фальшивого контента. Многие пользователи используют «Грок» для редактирования изображений и видео, создавая ложные материалы с участием реальных людей и активно распространяя их на платформе X. Пострадавшими оказались сотни взрослых женщин, а еще более тревожно — среди жертв оказались несовершеннолетние, что превратилось в серьезные вопросы прав человека и безопасности.
Усиление регулирования ЕС и использование данных в расследованиях
Ренье отметил, что Европейская комиссия «придает особое значение» этому хаосу и решила продлить срок действия требования по «хранению данных», которое уже было направлено платформе X в 2025 году. Ранее требования касались в основном алгоритмов платформы и распространения нелегционного контента, а теперь особое внимание уделяется всем внутренним записям, связанным с «Гроком», чтобы ЕС мог глубже исследовать ответственность платформы за регулирование AI-контента.
Со стороны платформы X 4 числа было заявлено, что будут предприняты меры по борьбе с нелегальным контентом, включая активное удаление нарушающего правила контента, постоянную блокировку нарушающих аккаунтов и сотрудничество с местными властями и правоохранительными органами при необходимости. Однако, смогут ли эти меры действительно остановить распространение фальшивого контента, покажет время.