Разное

Google анонсировала 5 правил безопасности для развития искусственного интеллекта

Исследователи изучили известные проблемы при разработке ИИ и выделили 5 основных правил безопасности в этой сфере.

В исследованиях принимали участие специалисты Google, OpenAI, Стэнфордского и Калифорнийского университетов. По их мнению, при разработке искусственного интеллекта нужно учитывать следующие моменты:

  • Избегать негативные побочные эффекты: мы должны гарантировать, что система не начнет ради своих целей разрушать окружающие ее предметы, то есть, если роботу нужно ускорить уборку, не разобьет ли он вазу.
  • Избегать хитростей в корыстных целях: не начнет ли робот прятать мусор, дабы не убирать его.
  • Обеспечить гибкий надзор: здесь речь идет о том, чтобы ИИ уважал и правильно распознавал и оценивал важные для человека аспекты. К примеру, не задавал раздражающие нас вопросы.
  • Организовать возможность безопасного исследования: обучение ИИ ни в коем случае не должно вызывать негативных последствий. К примеру, робот может самостоятельно усовершенствовать качество уборки, но не вытирать электроприборы или розетки мокрой тряпкой.
  • Организовать устойчивость к смене деятельности: должна быть гарантия того, что ИИ в незнакомой ситуации поведет себя адекватным и нужным образом. Например, робот, обученный убирать на заводе, не сможет безопасно убирать в офисе. 

Источник

Теги

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Кнопка «Наверх»
Закрыть
Закрыть