3 пугающих прорыва, которые ИИ совершит в 2024 году.

3 пугающих прорыва, которые ИИ совершит в 2024 году.

3 мин


Искусственный интеллект (ИИ) существует уже несколько десятилетий, но 2023-ий год стал прорывом для этой жуткой технологии: ChatGPT OpenAI создал доступный и практичный ИИ для масс. Однако у искусственного интеллекта неоднозначная история, и сегодняшней технологии предшествовал короткий послужной список неудачных экспериментов.

По большей части инновации в области искусственного интеллекта, похоже, способны улучшить такие вещи, как медицинская диагностика и научные открытия. Так, например, одна модель искусственного интеллекта может определить, подвержены ли вы высокому риску развития рака лёгких, анализируя рентгеновское сканирование. Во время же COVID-19 учёные создали алгоритм, который мог диагностировать вирус, прислушиваясь к едва уловимым различиям в звуке кашля людей. ИИ также использовался для разработки экспериментов по квантовой физике, выходящих за рамки того, что могли себе представить люди.

3 пугающих прорыва, которые ИИ совершит в 2024 году.
Искусственный интеллект существует уже несколько десятилетий, но этот год стал прорывом в этой жуткой технологии. Изображение: Yaroslav Kushta via Getty Images

Но не все нововведения столь безобидны. От дронов-убийц до искусственного интеллекта, который угрожает будущему человечества, — вот некоторые из самых страшных прорывов в области искусственного интеллекта, которые могут произойти в 2024 году.

Q* — эра сильного и слабого искусственного интеллекта (AGI)?

3 пугающих прорыва, которые ИИ совершит в 2024 году.
Мало что известно об сильном и слабом искусственном интеллекте, но он может расширить возможности ИИ. Изображение: Andriy Onufriyenko via Getty Images

Мы не знаем, почему именно генеральный директор OpenAI Сэм Олтмен (Sam Altman) был уволен и восстановлен в должности в конце 2023 года. Но на фоне корпоративного хаоса в OpenAI циркулировали слухи о передовой технологии, которая может угрожать будущему человечества. Эта система OpenAI, получившая название Q* (произносится как Q-star), может воплощать в себе потенциально революционную реализацию сильного и слабого искусственного интеллекта (Artificial General Intelligence, или AGI), сообщает Reuters. Об этой загадочной системе мало что известно, но если сообщения окажутся правдивыми, она может поднять возможности ИИ на несколько ступеней.

AGI — это гипотетический переломный момент, также известный как «сингулярность», когда ИИ становится умнее людей. Нынешние поколения ИИ всё ещё отстают в тех областях, в которых преуспевают люди, таких как контекстуальное мышление и подлинный творческий потенциал. Большая часть, если не весь, контент, созданный ИИ, в некотором роде просто воспроизводит данные, использованные для его обучения.

Но, по мнению учёных, AGI потенциально может выполнять определённые виды работ лучше, чем большинство людей. Его также можно превратить в оружие и использовать, например, для создания усовершенствованных патогенов, проведения массовых кибератак или организации массовых манипуляций.

Идея AGI долгое время оставалась сферой научной фантастики, и многие учёные считают, что мы никогда не достигнем этой точки. Для OpenAI уже достижение этого переломного момента, безусловно, было бы шоком — но не чем-то за гранью возможного. Мы знаем, например, что Сэм Олтмен уже закладывал основу для AGI в феврале 2023 года, излагая подход OpenAI к AGI в своём блоге. Мы также знаем, что эксперты начинают предсказывать неизбежный прорыв, среди них генеральный директор Nvidia Дженсен Хуанг (Jensen Huang), который заявил в ноябре, что AGI станет доступен в течение следующих 5-и лет, сообщил Barrons. Но сможет ли 2024 год стать годом прорыва для AGI? Время покажет.

Гиперреалистичные дипфейки, фальсифицирующие выборы

3 пугающих прорыва, которые ИИ совершит в 2024 году.
Технология искусственного интеллекта может повлиять на выборы. Изображение: nemke via Getty Images

Одной из наиболее острых киберугроз являются дипфейки — полностью сфабрикованные изображения или видео людей, которые могут искажать их облик, обвинять или запугивать. Технология дипфейков искусственного интеллекта ещё не настолько хороша, чтобы представлять собой серьёзную угрозу, но, возможно, ситуация в этом направлении скоро изменится.

Теперь ИИ может генерировать дипфейки в реальном времени — другими словами, прямые видеотрансляции, — и теперь он настолько хорошо умеет генерировать человеческие лица, что люди больше не могут отличить правду от фейка. Другое исследование, опубликованное в журнале Psychoological Science 13 ноября, выявило феномен «гиперреализма», при котором контент, созданный искусственным интеллектом, с большей вероятностью будет восприниматься как «реальный», чем действительно реальный контент.

Это вполне может свести на нет все попытки людей отличить факты от вымысла невооруженным глазом. И хотя некоторые инструменты могут помочь людям обнаружить дипфейки, они ещё не стали мейнстримом. Intel, например, создала детектор дипфейков в режиме реального времени, который использует искусственный интеллект для анализа кровотока. Однако, по данным BBC, FakeCatcher, как известно, продемонстрировал неоднозначные результаты.

По мере развития генеративного искусственного интеллекта одна из пугающих возможностей заключается в том, что люди могут использовать дипфейки, чтобы попытаться повлиять на выборы. Financial Times (FT) сообщила, например, что Бангладеш готовится к январским выборам, которые будут сорваны из-за глубоких фальсификаций. Поскольку США тоже готовятся к президентским выборам в ноябре 2024 года, существует вероятность того, что искусственный интеллект и дипфейки могут изменить исход этого важнейшего голосования. Например, Калифорнийский университет в Беркли следит за использованием искусственного интеллекта в предвыборной кампании, в свою очередь NBC News сообщила, что во многих штатах не хватает законов или инструментов для борьбы с любым всплеском дезинформации, генерируемой искусственным интеллектом.

Роботы-убийцы на базе искусственного интеллекта

3 пугающих прорыва, которые ИИ совершит в 2024 году.
Правительства по всему миру внедряют ИИ в военные системы. Изображение: Ignatiev via Getty Images

Правительства по всему миру всё активнее внедряют ИИ в инструменты ведения войны. 22 ноября правительство США объявило, что 47 государств одобрили декларацию об ответственном использовании ИИ в вооружённых силах, впервые обнародованную в Гааге в феврале. Зачем нужна была такая декларация? Потому что «безответственное» использование ИИ — это реальная и ужасающая перспектива. Мы видели, например, как дроны с искусственным интеллектом якобы выслеживают солдат в Ливии без участия человека.

Искусственный интеллект может распознавать закономерности, самообучаться, делать прогнозы или давать рекомендации в военном контексте, и гонка вооружений с искусственным интеллектом уже идёт полным ходом. Вероятно, в 2024 году мы увидим использование искусственного интеллекта не только в системах вооружения, но и в системах логистики и поддержки принятия решений, а также в исследованиях и разработках. Например, в 2022 году искусственный интеллект сгенерировал 40 тысяч новых видов гипотетического химического оружия. Различные подразделения вооружённых сил США заказали беспилотники, которые могут распознавать цели и отслеживать ход боя лучше, чем люди. Израиль тоже использовал искусственный интеллект для быстрого определения целей, по крайней мере, в 50 раз быстрее, чем это может сделать человек, в последней войне Израиля с ХАМАСом, сообщает NPR.

Но одна из самых страшных областей развития — это разработка смертоносных автономных систем оружия (LAWS), или роботов-убийц. Несколько ведущих учёных и технологов предостерегали от роботов-убийц, в том числе Стивен Хокинг (Stephen Hawking) в 2015 году и Илон Маск (Elon Musk) в 2017 году, но технология ещё пока не материализовалась в массовом масштабе.

Тем не менее, некоторые тревожные события позволяют предположить, что этот год может стать прорывом для роботов-убийц. Например, согласно сообщению Bulletin of the Atomic Scientists, в Украине Россия якобы развернула беспилотник Zala KYB-UAV, который может распознавать и атаковать цели без вмешательства человека. По данным Australian Financial Review, Австралия также разработала Ghost Shark — автономную подводную систему, которая будет производиться «в больших масштабах». Сумма, которую страны по всему миру тратят на ИИ, также является показателем: по данным Datenna, Китай увеличил расходы на ИИ с совокупных $11,6 млн в 2010 году до $141 млн к 2019 году, сообщает Reuters. Это связано с тем, что, добавляет издание, Китай участвует в гонке с США за развёртывание LAWS. В совокупности эти события позволяют предположить, что мы вступаем в новую эру войн, в которых активно будет задействован ИИ.


Понравилось? Поделитесь с друзьями!

Комментарии

- комментариев

Включить уведомления Да Спасибо, не надо