Ведущие эксперты предупреждают, что ИИ может использовать биологическое оружие и привести к вымиранию человечества.
Изображение: Vinegret.Net

Ведущие эксперты предупреждают, что ИИ может использовать биологическое оружие и привести к вымиранию человечества.

1 мин


Ведущие учёные утверждают, что искусственный интеллект (ИИ) — это не «игрушка» и может иметь катастрофические последствия для человечества.

В докладе, призывающем к более строгим правилам в отношении этой технологии, эксперты говорят, что искусственный интеллект – оказавшись не в тех руках – может быть использован для производства биологического оружия и когда-нибудь привести к вымиранию человечества.

Учёные уже давно призывают мировых лидеров принять более решительные меры против рисков, которые представляет для мира ИИ.

Ведущие эксперты предупреждают, что ИИ может использовать биологическое оружие и привести к вымиранию человечества.
Изображение: Vinegret.Net

Но в новом отчёте, опубликованном на днях, эксперты предупреждают, что прогресс был недостаточным со времени первого саммита по безопасности ИИ в Блетчли-Парке шесть месяцев назад.

В докладе утверждается, что правительства обязаны остановить разработку ИИ с вызывающими тревогу возможностями, такими как биологическая или ядерная война.

«Во время последнего саммита по искусственному интеллекту мир согласился с тем, что нам необходимы действия, но теперь пришло время перейти от расплывчатых предложений к конкретным обязательствам», — сказал профессор Филип Торр (Philip Torr) с факультета инженерных наук Оксфордского университета, соавтор статьи.

В докладе добавляется, что, поскольку ИИ превосходит людей во многих вызывающих удивление действиях, таких как хакерство, киберпреступность и социальные манипуляции, отсутствуют правила, предотвращающие злоупотребления и безрассудство.

Эксперты полагают, что вскоре ИИ может представлять угрозу, о которой люди даже не помішляли — или не планировали.

Чат-боты с искусственным интеллектом и будущие гуманоиды могут использовать тактику манипуляции, чтобы завоевать доверие людей и склонить лиц, принимающих решения, к действиям, которые будут способствовать достижению коррумпированных целей.

В докладе предупреждается, что во избежание вмешательства человека ИИ может копировать свои алгоритмы в глобальных серверных сетях.

Ещё в докладе говориться, что, если его не остановить, дальнейшее развитие ИИ может привести к крупномасштабной гибели людей, маргинализации или даже исчезновению человечества.

Однако, как утверждают эксперты, регулирование должно осуществляться правительством, а не навязываться компаниями, создающими эту технологию.

Стюарт Рассел (Stuart Russell), профессор компьютерных наук Калифорнийского университета в Беркли, сказал:

«Это консенсусный документ ведущих экспертов, и он призывает к строгому регулированию со стороны правительств, а не к добровольным кодексам поведения, написанным промышленностью.»

«Пришло время серьёзно отнестись к передовым системам искусственного интеллекта. Это не игрушки.»

«Повышать их возможности до того, как мы поймём, как сделать их безопасными, крайне безрассудно.»

Говоря о крупных технологических компаниях, которые утверждают, что правила техники безопасности будут подавлять инновации, Рассел добавил:

«Это смешно. В отношении магазинов сэндвичей действует больше правил, чем в отношении компаний, занимающихся искусственным интеллектом.»

Стоит отметить, что в общей сложности отчёт подписали 25 ведущих мировых академических экспертов в области искусственного интеллекта, в том числе Джеффри Хинтон (Geoffrey Hinton), Эндрю Яо (Andrew Yao), Доун Сонг (Dawn Song) и покойный Дэниел Канеман (Daniel Kahneman), скончавшийся в прошлом месяце.


Понравилось? Поделитесь с друзьями!

Комментарии

- комментариев

Включить уведомления Да Спасибо, не надо