Ведущие учёные утверждают, что искусственный интеллект (ИИ) — это не «игрушка» и может иметь катастрофические последствия для человечества.
В докладе, призывающем к более строгим правилам в отношении этой технологии, эксперты говорят, что искусственный интеллект – оказавшись не в тех руках – может быть использован для производства биологического оружия и когда-нибудь привести к вымиранию человечества.
Учёные уже давно призывают мировых лидеров принять более решительные меры против рисков, которые представляет для мира ИИ.
Но в новом отчёте, опубликованном на днях, эксперты предупреждают, что прогресс был недостаточным со времени первого саммита по безопасности ИИ в Блетчли-Парке шесть месяцев назад.
В докладе утверждается, что правительства обязаны остановить разработку ИИ с вызывающими тревогу возможностями, такими как биологическая или ядерная война.
«Во время последнего саммита по искусственному интеллекту мир согласился с тем, что нам необходимы действия, но теперь пришло время перейти от расплывчатых предложений к конкретным обязательствам», — сказал профессор Филип Торр (Philip Torr) с факультета инженерных наук Оксфордского университета, соавтор статьи.
В докладе добавляется, что, поскольку ИИ превосходит людей во многих вызывающих удивление действиях, таких как хакерство, киберпреступность и социальные манипуляции, отсутствуют правила, предотвращающие злоупотребления и безрассудство.
Эксперты полагают, что вскоре ИИ может представлять угрозу, о которой люди даже не помішляли — или не планировали.
Чат-боты с искусственным интеллектом и будущие гуманоиды могут использовать тактику манипуляции, чтобы завоевать доверие людей и склонить лиц, принимающих решения, к действиям, которые будут способствовать достижению коррумпированных целей.
В докладе предупреждается, что во избежание вмешательства человека ИИ может копировать свои алгоритмы в глобальных серверных сетях.
Ещё в докладе говориться, что, если его не остановить, дальнейшее развитие ИИ может привести к крупномасштабной гибели людей, маргинализации или даже исчезновению человечества.
Однако, как утверждают эксперты, регулирование должно осуществляться правительством, а не навязываться компаниями, создающими эту технологию.
Стюарт Рассел (Stuart Russell), профессор компьютерных наук Калифорнийского университета в Беркли, сказал:
«Это консенсусный документ ведущих экспертов, и он призывает к строгому регулированию со стороны правительств, а не к добровольным кодексам поведения, написанным промышленностью.»
«Пришло время серьёзно отнестись к передовым системам искусственного интеллекта. Это не игрушки.»
«Повышать их возможности до того, как мы поймём, как сделать их безопасными, крайне безрассудно.»
Говоря о крупных технологических компаниях, которые утверждают, что правила техники безопасности будут подавлять инновации, Рассел добавил:
«Это смешно. В отношении магазинов сэндвичей действует больше правил, чем в отношении компаний, занимающихся искусственным интеллектом.»
Стоит отметить, что в общей сложности отчёт подписали 25 ведущих мировых академических экспертов в области искусственного интеллекта, в том числе Джеффри Хинтон (Geoffrey Hinton), Эндрю Яо (Andrew Yao), Доун Сонг (Dawn Song) и покойный Дэниел Канеман (Daniel Kahneman), скончавшийся в прошлом месяце.