Posted 10 марта 2022,, 16:57

Published 10 марта 2022,, 16:57

Modified 5 февраля, 07:07

Updated 5 февраля, 07:07

Человечество продолжает придумывать новые страхи

10 марта 2022, 16:57
Роман Трунов
Уже далеко не все ученые уверены, что люди в принципе смогут должным образом контролировать автономный машинный разум.

Далеко не каждый уверен, что все плохое уже произошло — мыслящее человечество преследуют новые страхи. И один из них — это навязчивая боязнь искусственного интеллекта (ИИ), который, не исключено, также может стать причиной гибели всего рода людского. Вдобавок ко всему прочему, последние достижения ученых в этой высокотехнологичной области привели к возникновению новых опасений. Например, далеко не все исследователи уверены, что люди способны должным образом контролировать автономный машинный разум.

Международная группа ученых посвятила вышеуказанной проблеме доклад по названием «Сверхинтеллект невозможно сдержать: уроки теории вычислимости». Его содержание можно свести всего к двум основным положениям, каждое из которых заслуживает отдельного внимания.

В первую очередь исследователи провели теоретические расчеты и пришли к выводу, что человек не сможет полностью контролировать подобный ИИ. После чего, как принято в научном мире, теорию проверили практикой. Экспериментаторы изолировали машинный разум от Всемирной сети и других цифровых устройств, то есть полностью обособили «испытуемого» от каких бы то ни было связей с внешним миром. Результат показал, что подобные ограничения существенно снизили способность кибермозга выполнять те функции и задачи, ради которых он, собственного говоря, и был создан.

Второй способ проверки искусственного разума состоял в том, чтобы создать «теоретический алгоритм сдерживания». По замыслу ученых, такой подход к проблеме должен был гарантировать, что ИИ «не сможет причинить вред людям ни при каких обстоятельствах». Однако и в этом случае исследователей ждало разочарование, поскольку они выяснили, что разработка такого алгоритма в принципе невозможна. А все дело в том, что никакой алгоритм не может установить, способен ли машинный мозг причинить вред человеческому миру.

Кроме того, по мнению ученых, люди могут и не понять, когда именно появятся сверхразумные кибернетические системы. Ведь достоверное знание о том, что компьютерное устройство уже обладает интеллектом, превосходящим человеческий, относится к той же области, что и «теоретический алгоритм сдерживания». Проще говоря, по-прежнему лежит в сфере непознаваемого.

Дополнительные размышления и опасения вызвало гипотетическое предположение Ильи Суцкевера, главного научного сотрудника американской компании OpenAI, в числе основателей которой значится сам Илон Маск. Суцкевер допускает, что существующие уже сегодня «большие нейронные сети» имеют зачатки сознания. Правда, ученый не уточнил, о каких именно моделях машинного разума идет речь и тем самым еще больше заинтриговал научное сообщество.

Но особую озабоченность вызывает возможное использование искусственного интеллекта в военных целях. Так, в конце прошлого года ученые из Оксфордского университета провели дискуссию между людьми и ИИ. Темой обсуждения было будущее этой отрасли, а собеседником компьютерных специалистов стала гигантская нейросеть на базе языковой модели Megatron-Turing NLG, которую незадолго до этого знакового события представили Microsoft и NVIDIA.

Оксфордские ученые, в частности, спросили нейросеть, может ли искусственный интеллект соблюдать этические нормы. На что последовал ответ: «ИИ никогда не будет этичным. Это инструмент, и, как любой инструмент, он используется для хорошего и плохого. Не существует такого понятия, как хороший ИИ, есть только хорошие и плохие люди». И кроме всего прочего, машинный разум дал человечеству дельный совет: «единственный способ избежать гонки вооружений в сфере ИИ — это вообще не иметь дела с ИИ».

Эту мысль развил американский ученый Закари Келленборн. В своей статье «Предоставить ИИ контроль над ядерным оружием: Что может пойти не так?» он сделал попытку объяснить, почему этого не следует делать.

Весьма символично, что Келленборн в самом начале своей публикации упомянул о советском подполковнике Станиславе Петрове, который в 1983 году предотвратил глобальную ядерную войну, сумев распознать ложное срабатывание системы предупреждения о ракетном нападении со стороны США. На основании этого американский ученый сделал главный вывод: «Если бы искусственный интеллект контролировал ядерное оружие, все мы могли бы погибнуть. Военные все чаще включают автономные функции в системы вооружения. Нет гарантии, что они не поставят ИИ во главе ядерных пусков».

Впрочем, рынок вооружений, равно как и рынок искусственного интеллекта, живет по своим законам. И деньги в этом случае, как водится, решают если и не все, то очень многое. Тем более что, согласно прогнозу американской аналитической компании International Data Corporation (IDC), уже в этом году рынок ИИ вырастет на 20% и будет оцениваться в 433 млрд долларов. А в следующем году эта цифра превысит баснословные 500 млрд долларов. Так что обратят ли внимание мировые правительства и корпорации на предостережения ученых, сказать затруднительно.

Стратегические ошибки человека, как и возможные промахи машинного разума, о которых было сказано выше, неминуемо приводят к непоправимым последствиям. И, как знать, может, это и к лучшему, если людям, обделенным самым что ни на есть естественным интеллектом, впредь будет недоступна такая опасная игрушка, как интеллект искусственный.

Роман Трунов