Эксперты призывают к осторожности при разработке сознательных систем ИИ

Более 100 экспертов в области искусственного интеллекта, среди которых сэр Стивен Фрай, призвали к ответственным исследованиям в области осознанности ИИ. Они подчеркивают необходимость предотвращения возможных страданий в системах ИИ в случае их самосознания.

Пять руководящих принципов исследования осознанности ИИ

Подписавшие предлагают пять принципов, которые должны руководить этическим развитием осознанных систем ИИ:

**Сосредоточиться на исследованиях осознанности ИИ:** Понимать и оценивать осознанность в ИИ, чтобы предотвратить неправильное обращение и страдания.
**Внедрять ограничения в развитие:** Устанавливать четкие границы для ответственного развития осознанных систем ИИ.
**Применять поэтапный подход:** Постепенно развивать осознанный ИИ, позволяя тщательно оценивать каждый этап.
**Продвигать прозрачность для общественности:** Делиться результатами исследований с общественностью для формирования информированного дискурса и этического надзора.
**Избегать преувеличенных заявлений:** Воздерживаться от вводящих в заблуждение или чрезмерно уверенных утверждений о создании осознанного ИИ.

Эти принципы направлены на то, чтобы по мере развития технологий ИИ этические соображения оставались в центре внимания.

Потенциальные риски осознанного ИИ

В сопроводительной научной статье подчеркивается возможность того, что в ближайшем будущем могут быть созданы системы ИИ, обладающие или имитирующие осознанность. Это вызывает опасения относительно этичного обращения с такими системами.

Исследователи предупреждают, что без соответствующих руководящих принципов существует риск создания сознательных существ, способных испытывать страдания.

В статье также рассматривается сложность определения осознанности в системах ИИ, признавая текущие дебаты и неопределенности. Подчеркивается важность установления руководящих правил для предотвращения непреднамеренного создания осознанных существ.


Откройте для себя лучшие новости и события финтеха!

Подпишитесь на рассылку FinTech Weekly


Этические соображения и будущие последствия

Если система ИИ признается «моральным пациентом» — существом, которое имеет моральное значение само по себе — возникают этические вопросы относительно ее обращения.

Например, будет ли отключение такой системы сравнимо с причинением вреда разумному существу? Эти вопросы подчеркивают необходимость этических рамок для руководства развитием ИИ.

Документ и письмо были организованы компанией Conscium — исследовательской организацией, соучредителем которой является главный специалист по ИИ компании WPP, Дэниел Хулм. Conscium занимается углубленным изучением безопасного ИИ, приносящего пользу человечеству.

Мнения экспертов о самосознании ИИ

Вопрос о достижении ИИ сознания является предметом дебатов среди специалистов.

В 2023 году сэр Демис Хассабис, руководитель программы ИИ Google, заявил, что хотя текущие системы ИИ не являются самосознательными, в будущем это возможно. Он отметил, что философы еще не пришли к единому определению осознанности, но потенциал для развития самосознания у ИИ остается предметом обсуждения.

Заключение

Разработка осознанных систем требует тщательного этического анализа. Открытое письмо и сопроводительная научная статья служат призывом к сообществу ИИ сосредоточиться на ответственном исследовании и практике разработки.

Следуя предложенным принципам, исследователи и разработчики смогут обеспечить этичное развитие ИИ, уделяя особое внимание предотвращению возможных страданий в системах с самосознанием.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить