На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Свежие комментарии

  • Павел Полуян
    Я вижу, тут народ знает о пушках-рельсотронах. Да, это система из двух протяженных продольных контактов-рельсов и сна...Будущее (или засе...
  • Наталья Конева
    Не надо нам 5 g!!Когда в России за...
  • валерий лисицын
    Ничего там нет . Мёртвая планета .Загадки Марса: но...

Сотрудник Google сформулировал пять ключевых проблем при создании искусственного интеллекта

Сотрудник Google сформулировал пять ключевых проблем при создании искусственного интеллекта

Каждый год Google неизменно отчитывается об успехах в учёбе своей "умной машины". Широко известные и уже подсознательно воспринимаемые образы ИИ, созданные Голливудом, заронили в человеке мысль об опасности разумной машины – ведь непредсказуемость и потенциальная неограниченность интеллектуального развития компьютера действительно может погубить человечество.

Всё это на самом деле не столько вопрос научной фантастики, сколько насущная проблема, с которой борются современные учёные. В публикации, написанной совместно специалистами из Google, OpenAI, Стэнфордского университета и Калифорнийского университета в Беркли, сотрудник Google Крис Ола сформулировал пять ключевых проблем, решить которые необходимо для стратегического развития ИИ.

Сотрудник Google сформулировал пять ключевых проблем при создании искусственного интеллекта

  • Избегание негативных побочных эффектов: как удостовериться, что система ИИ не нарушит состояние окружающей среды во время выполнения своих задач?
  • Избегание мыслей о награде: как организовать работу ИИ и избежать жульничества? К примеру, нам нужен робот-уборщик, который на самом деле убирается, а не прячет мусор подальше, чтобы мы его не видели.
  • Различные степени контроля: как убедиться в способности ИИ выполнить поставленную задачу наверняка, если её выполнение невозможно точно смоделировать на тренировке? К примеру, если ИИ получает сообщение от человека во время выполнения задачи, ему следует сразу же эффективно применить новую информацию к задаче, не задавая лишних вопросов, которые испытывают терпение человека.
  • Безопасное самообучение: как обезопасить систему ИИ от поступков с целью исследования, которые имеют негативные последствия?
    К примеру, робот-уборщик должен экспериментировать со стратегиями уборки, но ему не следует вытирать электрическую розетку мокрой шваброй.
  • Способность переключения между видами деятельности: как сделать систему ИИ, которая будет узнавать и спокойно реагировать на условия работы, отличные от условий тренировки? Например, навыки работы в условиях завода могут не подойти в условиях офиса.

Эти вопросы, в отличие от пресловутых Трёх Законов робототехники, сформулированных фантастом Айзеком Азимовым, действительно могут быть использованы на практике и оказать значительную помощь в будущем, которое связано с проектами ИИ и обучаемых машин.

 

Источник

наверх