Вы заинтересованы в них? ПРЕДЛОЖЕНИЯ? Экономьте с нашими купонами на WhatsApp o ТЕЛЕГРАММА!

OpenAI создает команду для борьбы с «катастрофическими» рисками ИИ. Вот почему это беспокоит нас

OpenAI, компания, которая сейчас находится на переднем крае области искусственного интеллекта, недавно Annunciato создание новой команды с конкретной задачей оценить и смягчить потенциально катастрофические риски, связанные с развитием технологий, связанных с искусственным интеллектом.. Этот шаг подчеркивает растущую важность активного решения проблем и опасностей, которые могут принести генеративные модели. Очевидно, там, где за ними должным образом не следят.

Идентификация рисков OpenAI

По мере быстрого развития искусственного интеллекта возникают новые риски, которые могут иметь серьезные последствия в глобальном масштабе. Для этого новая команда подготовки OpenAI посвятит себя рисовать, оценивать, обеспечивать e защита против этих потенциальных проблем. Среди выявленных рисков можно выделить: угрозы ядерный, тема, подчеркивающая безотлагательность ответственных действий в области ИИ.

Помимо ядерных угроз, группа также сосредоточится на опасностях, связанных с химическими веществами. химические, биологические и радиологические, а также на ффеномен самовоспроизведения искусственного интеллектаили способность системы искусственного интеллекта автономно копировать себя. Другие области внимания включают способность ИИ обманывать людей и угрозы все информационной безопасности.

Преимущества и проблемы передового ИИ

OpenAI признает, что передовые модели ИИ, превосходящие возможности самых передовых существующих моделей, обладают потенциалом принести пользу всему человечеству. И нет, вопреки тому, что вы думаете,Искусственный интеллект здесь не для того, чтобы украсть наши рабочие места а, скорее, создать его.

Однако с большой силой приходит и большая ответственность. Поэтому крайне важно развивать полисы информированы о рисках, что позволяет вам оценивать и отслеживать модели ИИ, чтобы гарантировать, что выгоды перевешивают связанные с этим риски.

openai предлагает вознаграждение за обнаружение ошибок в chatgpt

См. также: У DeepMind есть решение для предотвращения рисков, связанных с ИИ

Руководство новой командой было поручено Александр Мадри, ведущая фигура в области машинного обучения. В настоящее время находится в отпуске роль директора Центр развертываемого машинного обучения Массачусетского технологического института, Мадри будет координировать усилия по разработке и поддержанию политики развития, учитывающей риски.

На пути к глобальному приоритету

Генеральный директор OpenAI, Сэм Альтман, это не ново опасениям по поводу потенциально катастрофических рисков, связанных с ИИ. Он предположил, что подход к технологиям искусственного интеллекта должен быть более строгим.воспринимается так же серьезно, как и ядерное оружие, подчеркивая необходимость коллективных усилий по смягчению рисков исчезновения, связанных с ИИ. Эта новая команда представляет собой конкретный шаг на пути к реализации этого видения, подчеркивая стремление OpenAI внести свой вклад в ответственное управление искусственным интеллектом.

Джанлука Кобуччи
Джанлука Кобуччи

Увлечён кодом, языками и языками, человеко-машинными интерфейсами. Все, что связано с технологической эволюцией, меня интересует. Я стараюсь раскрывать свою страсть с предельной ясностью, опираясь на достоверные источники, а не «с первого раза».

подписываться
извещать
гость

0 комментарии
Встроенные отзывы
Посмотреть все комментарии
XiaomiToday.it
Логотип