Искусственный интеллект (ИИ) может найти своё место в таких отраслях, как полиция и образование, и в некоторых аспектах это уже происходит.
Поскольку компании уделяют приоритетное внимание производительности и стремятся сократить расходы, ИИ рассматривается как простой способ оптимизировать задачи и устранить зависимость от работников-людей.
Однако у искусственного интеллекта есть и недостатки, такие как усиление предвзятости и распространение неточной информации. Кроме того, что произойдёт, когда ИИ начнёт учиться у самого себя?
Вот несколько самых значительных научных прорывов, которые, как ожидается, скоро станут популярными.
Самообучающийся ИИ
Медиа популяризировали идею ИИ-систем как послушных машин, зависящих от указаний людей.
Однако разработчики выяснили, что эти системы могут «сойти с ума».
И подобное известно, как MAD, что означает «модельное расстройство аутофагии» («model autophagy disorder»). Этот термин описывает процесс, при котором ИИ учится на собственных результатах, создавая всё более бессмысленные выводы.
Термин «аутофагия» происходит от греческого слова «саморазрушение», точно передавая, как система тренируется на синтезированном ИИ-контенте, подобно змее, поедающей свой собственный хвост.
Исследователи из Университета Райса и Стэнфордского университета были одними из первых, кто обнаружил, что модели теряют качество и разнообразие своих ответов без постоянного потока новых, реальных данных.
Полная аутофагия происходит, когда модель обучается исключительно на своих собственных результатах, но машины также могут тренироваться на данных, опубликованных другими ИИ-программами.
Это создаёт проблему, поскольку Интернет заполняет всё больше и больше контента, созданного ИИ. Всё более вероятно, что такие материалы собираются и используются в обучающих наборах данных для других моделей.
Трудно оценить, какой объём данных в Интернете создаётся искусственным интеллектом, но это количество быстро растёт.
NewsGuard, платформа, оценивающая надёжность новостных сайтов, отслеживает «дезинформацию, создаваемую с помощью ИИ» в Интернете.
К концу 2023 года группа выявила 614 ненадёжных сайтов с новостями и информацией, созданными ИИ, которые получили название «UAINS». На прошлой неделе их количество увеличилось до 987.
Эти сайты охватывают 16 языков и имеют обобщенные названия, чтобы выглядеть как легитимные новостные сайты. Некоторые содержат политическую ложь, а другие фабрикуют смерть знаменитостей и события.
Ожидается, что в ближайшие годы масштабы проблемы будут только увеличиваться, так как всё больше контента будет создаваться машинами.
В итоге модели могут начать проявлять признаки MAD чаще, поскольку они питаются этим контентом, усиливая при этом ложь и искажая факты.
Критический момент в данном случае наступит тогда, когда люди перестанут различать, что создано человеком, а что — машиной, принимая вводящий в заблуждение контент за истину.
ИИ в полиции
Некоторые специалисты утверждают, что ИИ может дополнить определённые области работы полиции, от расследования преступлений до ответов на вызовы 911.
Некоторые эксперты отрасли полагают, что искусственный интеллект скоро сыграет ключевую роль в анализе преступлений, снижая нагрузку на область, сталкивающуюся с массовой нехваткой персонала.
Опрос, проведённый в 2019 году Исследовательским форумом исполнительной полиции, показал, что 86% полицейских агентств сообщили о нехватке сотрудников.
В опросе, проведённом двумя годами позже, типичный уровень найма снизился на 5% во всех агентствах, независимо от их размера, в то время как уровень выхода на пенсию вырос почти на 50%.
По этой причине некоторые инсайдеры стремятся внедрить технологии ИИ. Так где же он может найти своё применение?
ИИ может выделять ключевую информацию, которая будет использоваться в расследованиях, извлекая детали из социальных медиа или финансовых отчётов.
Новые технологии могут автоматизировать сбор и интерпретацию данных, предоставляя командам по анализу преступлений больше времени для решения сложных задач.
Аналогично, системы могут использоваться для обнаружения мошенничества, выявляя паттерны в документах, указывающие на незаконную деятельность.
Одним из наиболее вероятных применений является технология распознавания лиц — инструмент, который уже широко задействуется в некоторых странах.
Программное обеспечение находит лицо на видеозаписях с камер наблюдения и отображает его ключевые черты, такие как расстояние между глазами и форма губ.
Затем машина сравнивает шаблон лица с базой данных известных лиц для нахождения совпадений.
Сторонники утверждают, что это можно использовать для идентификации подозреваемых или пропавших без вести, однако в этом случае всё ещё остаются проблемой опасения по поводу конфиденциальности и гражданских свобод.
Во-первых, существует возможность алгоритмической дискриминации, когда система ИИ усиливает вредные стереотипы.
Технология может усугубить расовые и гендерные предвзятости, что приведёт к несправедливому обращению.
Более того, существует опасность, что такие инструменты, как распознавание лиц, могут быть использованы против журналистов или политических оппонентов.
ИИ-юристы
Аналитики предсказывали, что в 2023 году ИИ окажет своё влияние на то, что юридическая сфера столкнётся с потерей рабочих мест — но этого не произошло.
Однако не рано ли считать, что буря утихла?
Отчёт Goldman Sachs оценил, что почти половину юридической работы можно автоматизировать.
Исследование, проведённое учёными из Принстона, Университета Пенсильвании и Нью-Йоркского университета, показало, что юриспруденция наиболее подвержена влиянию новых технологий.
Легко увидеть, как чат-боты, специализирующиеся на имитации речи, могут вмешиваться в юридическую работу, особенно по мере того, что технологии продолжают совершенствоваться в анализе и использовании человеческого языка.
OpenAI даже анонсировала в начале этого месяца, что разработала модель под названием CriticGPT, предназначенную для выявления ошибок в выводах ChatGPT.
«Мы обнаружили, что когда люди получают помощь от CriticGPT для проверки кода ChatGPT, они добиваются лучших результатов на 60% чаще, чем те, кто не получает такую помощь», — говорится в пресс-релизе компании.
Однако у этой технологии есть свои недостатки, в частности, склонность выдумывать информацию или «галлюцинировать», выражаясь языком ИИ.
И хотя сторонники утверждают, что эти дефекты можно исправить, они имеют серьёзное значение в отрасли, которая зависит от интерпретации и анализа фактов.
Примером, который подогревает сомнения, является случай с адвокатом из Нью-Йорка Стивеном Шварцем (Steven Schwartz).
В мае 2023 года Шварц признался, что использовал ChatGPT для помощи в исследовании по делу, в котором были упомянуты шесть фиктивных судебных решений по делу о личной травме клиента.
На слушаниях позже Шварц заявил, что он «никогда» не предполагал, что ChatGPT может лгать, и не имел намерения вводить суд в заблуждение.
Частично под влиянием дела Шварца федеральный судья в Техасе выдал требование, согласно которому юристы должны удостоверять, что они не использовали ИИ для составления своих документов без проверки их точности человеком.
Позже судья наложил санкции на Шварца, его партнёра Питера ЛоДуку (чье имя было указано в документе) и их фирму, приговорив их к выплате штрафа в размере 5 тысяч долларов.
Стартапы в области юридических технологий пытаются ограничить «галлюцинации» с помощью создания программного обеспечения, работающего поверх чат-ботов, таких как Casetext.
Эти программы могут анализировать юридические документы, составлять вопросы для допросов и даже предлагать пересмотр контрактов.
ИИ-профессора
И хотя опасения по поводу того, что ИИ отнимет рабочие места, не новы, это может произойти быстрее, чем вы думаете.
Этой осенью Колледж Морхаус планирует ввести ИИ-помощников преподавателя — трехмерные аватары с цифровыми досками.
В отличие от настоящих профессоров, этим роботам не нужно есть, спать или брать личное время, что означает, что они будут доступны для студентов круглосуточно.
Студенты смогут получать доступ к программе через браузер Google Chrome и задавать вопросы в текстовом поле или произносить их вслух.
Виртуальный помощник предоставит вербальный ответ на родном языке студента, чтобы имитировать атмосферу в классе.
Инициатором проекта является Мухсина Моррис (Muhsinah Morris), старший профессор педагогики Морхауса.
Моррис опровергла утверждения о том, что вопросы студентов будут использоваться для обучения больших языковых моделей.
Ожидается, что каждый профессор через 3-5 лет примет на работу ИИ-помощника.
Однако стоит отметить, что это будет не первый опыт школы в сфере передовых технологий.
Морхаус заключил партнёрское соглашение с VictoryXR, компанией-разработчиком программного обеспечения для VR-образования, чтобы запустить в 2021 году первый в стране «Метауниверситет».
Студенты надевали VR-гарнитуры Meta Quest и посещали виртуальные занятия в разгар пандемии COVID-19.
По словам Моррис, этот эксперимент сделал Морхаус образцом для классов виртуальной реальности в других колледжах и университетах, исторически сложившихся как ВУЗы для чернокожих.