eye best_1 best_2 best_3 best_4 best_5 doubledot dot

Реакция

Telegram-канал «Малоизвестное интересное». Шансы человечества притормозить и подумать тают

Настоящий материал (информация) произведен, распространен и (или) направлен иностранным агентом АО «РС-Балт» либо касается деятельности иностранного агента АО «РС-Балт». 18+

14:11, 24.05.2023 // Росбалт, Реакция

Вводная картинка
© CC0 Public Domain

Ряд ведущих компаний в области ИИ, включая OpenAI, Google DeepMind и Anthropic, поставили перед собой цель создать искусственный общий интеллект (AGI) — системы ИИ, которые достигают или превосходят человеческие возможности в широком диапазоне когнитивных задач.

Преследуя эту цель, разработчики могут создать интеллектуальные системы, внедрение которых повлечет значительные и даже катастрофические риски. Поэтому по всему миру сейчас идет бурное обсуждение способов снижения рисков разработки AGI.

По мнению экспертов, существует около 50 способов снижения таких рисков. Понятно, что применить все 50 в мировом масштабе нереально. Нужно выбрать несколько главных и сфокусироваться на них. По сути, от того, какие из способов будут признаны приоритетными, зависит будущее человечества.

Только что вышедший отчет Centre for the Governance of AI анализирует мнения специалистов 51-й ведущей команды среди мировых разработчиков AGI на предмет выяснения:
— какие из 50 способов снижения ИИ-рисков они для себя считают более приоритетными, а какие — менее;
— какие из способов снижения ИИ-рисков большинство разработчиков готовы применять, а какие большинству разработчиков не нравятся (вследствие чего рассчитывать на успех этих способов снижения риска вряд ли стоит).

Итог опроса таков: менее всего разработчики хотят координировать свои действия (делясь информацией о том, что собираются делать, а не как сейчас — что уже сделали) с правительством и между собой.

Именно эти способы снижения ИИ-рисков двое из «крестных отцов ИИ» Йошуа Бенжио и Джеффри Хинтон считают ключевыми в создавшейся ситуации.

А саму ситуацию, ИМХО, точнее всего описал Джек Кларк, первым нажавший в январе 2023 кнопку тревоги на слушаниях по ИИ в Конгрессе США: «Лошади уже сбежали, а мы спорим, как укреплять ворота конюшни».

В русском языке для подобных ситуаций есть другая пословица, использованная мною в конце прошлого года. Тогда я написал, что риски ИИ материализуются на наших глазах, и через год будет уже поздно пить Боржоми.

Telegram-канал «Малоизвестное интересное»

Подпишитесь на нас в Дзен.Новости
Читайте также

Топ за неделю


Новости

Все новости

Погода

Москва: +10°
Санкт-Петербург: +8°