OpenAI, компания, которая сейчас находится на переднем крае области искусственного интеллекта, недавно Annunciato создание новой команды с конкретной задачей оценить и смягчить потенциально катастрофические риски, связанные с развитием технологий, связанных с искусственным интеллектом.. Этот шаг подчеркивает растущую важность активного решения проблем и опасностей, которые могут принести генеративные модели. Очевидно, там, где за ними должным образом не следят.
Темы этой статьи:
Идентификация рисков OpenAI
По мере быстрого развития искусственного интеллекта возникают новые риски, которые могут иметь серьезные последствия в глобальном масштабе. Для этого новая команда подготовки OpenAI посвятит себя рисовать, оценивать, обеспечивать e защита против этих потенциальных проблем. Среди выявленных рисков можно выделить: угрозы ядерный, тема, подчеркивающая безотлагательность ответственных действий в области ИИ.
Помимо ядерных угроз, группа также сосредоточится на опасностях, связанных с химическими веществами. химические, биологические и радиологические, а также на ффеномен самовоспроизведения искусственного интеллектаили способность системы искусственного интеллекта автономно копировать себя. Другие области внимания включают способность ИИ обманывать людей и угрозы все информационной безопасности.
Преимущества и проблемы передового ИИ
OpenAI признает, что передовые модели ИИ, превосходящие возможности самых передовых существующих моделей, обладают потенциалом принести пользу всему человечеству. И нет, вопреки тому, что вы думаете,Искусственный интеллект здесь не для того, чтобы украсть наши рабочие места а, скорее, создать его.
Однако с большой силой приходит и большая ответственность. Поэтому крайне важно развивать полисы информированы о рисках, что позволяет вам оценивать и отслеживать модели ИИ, чтобы гарантировать, что выгоды перевешивают связанные с этим риски.
См. также: У DeepMind есть решение для предотвращения рисков, связанных с ИИ
Руководство новой командой было поручено Александр Мадри, ведущая фигура в области машинного обучения. В настоящее время находится в отпуске роль директора Центр развертываемого машинного обучения Массачусетского технологического института, Мадри будет координировать усилия по разработке и поддержанию политики развития, учитывающей риски.
На пути к глобальному приоритету
Генеральный директор OpenAI, Сэм Альтман, это не ново опасениям по поводу потенциально катастрофических рисков, связанных с ИИ. Он предположил, что подход к технологиям искусственного интеллекта должен быть более строгим.воспринимается так же серьезно, как и ядерное оружие, подчеркивая необходимость коллективных усилий по смягчению рисков исчезновения, связанных с ИИ. Эта новая команда представляет собой конкретный шаг на пути к реализации этого видения, подчеркивая стремление OpenAI внести свой вклад в ответственное управление искусственным интеллектом.