Развитие ИИ приближает апокалипсис?
Потенциал искусственного интеллекта с каждым днем становится все больше и ярче, но даже его самые большие сторонники сейчас советуют проявлять осторожность. Благодаря ChatGPT и подобным сервисам, использующим генеративный искусственный интеллект, искусственный интеллект, который прежде вызывал исключительно безграничный энтузиазм, теперь также вселяет в некоторых чувство страха. И это понятно, учитывая стремительный беспрецедентный рост этой технологии. В отличие от других технологий вроде мета-вселенной, возможности искусственного интеллекта доступны рядовым пользователям уже сейчас и эта технология развивается шокирующими темпами. И именно этот потенциал вызвал серьезную обеспокоенность не только среди рядовых пользователей, но и среди техно-икон и экспертов в области искусственного интеллекта. Но правы ли они в этом или опасения по поводу опасности искусственного интеллекта преувеличены? Давайте разбираться.
Даже если мы проигнорируем возможность апокалипсиса в будущем, невозможно не заметить, как искусственный интеллект влияет на существование тысяч, если не миллионов людей сегодня. Хотя генераторы изображений и чат-боты могут показаться безобидными системами, они уже в некоторых случаях заменяют представителей некоторых профессий — от сотрудников службы поддержки до графических дизайнеров. И в отличие от индустриализации 18-го века, нельзя с уверенностью утверждать, что сегодня искусственный интеллект создаст новые рабочие места, а не сократит уже имеющиеся.
Современные системы искусственного интеллекта способны к рассуждениям и самообучению, уменьшая потребность в человеческом контроле – в отличие от традиционных машин. Всего несколько недель назад стартап Cognition Labs, специализирующийся на искусственном интеллекте, представил Devin, который называют первым в мире полностью автономным инженером-программистом на основе искусственного интеллекта. Помимо непосредственного написания кода, Devin также умеет выявлять и исправлять ошибки, обучать и развертывать новые собственные модели на основе искусственного интеллекта, вносить свой вклад в проекты с открытым исходным кодом и даже участвовать в обсуждениях сообщества. К сожалению, эта автономность может иметь серьезные последствия, которые выходят далеко за рамки простого сокращения рабочих мест.
Самая большая опасность — это не искусственный интеллект, который нас перехитрит, а тот ИИ, который может нас обмануть.
Возьмем, к примеру, вредоносный бэкдор, обнаруженный недавно в инструменте с открытым исходным кодом XZ Utils. Хотя XZ малоизвестен за пределами сообществ разработчиков, на него полагаются миллионы серверов на базе Linux, а бэкдор мог бы предоставить злоумышленникам удаленный контроль над многими критически важными системами. Однако это не был традиционный взлом или эксплойт. Вместо этого злоумышленник в течение нескольких лет заработал репутацию полезного участника, завоевал доверие сообщества и уже после внедрил в систему код для бэкдора.
Сложная система искусственного интеллекта могла бы автоматизировать такие атаки в большом масштабе, обрабатывая каждый аспект — от генерации вредоносного кода до имитации человеческого общения. Конечно, сейчас генеративные системы на основе ИИ сегодня нельзя назвать очень эффективными и полезными и человек даже с небольшими познаниями в области технологий способен понять, что общается с ним не человек, а бот. Однако искусственный интеллект, который сможет легко интегрироваться в сообщества разработчиков и манипулировать ключевой инфраструктурой, кажется неизбежным. Да, OpenAI и Cognitive Labs строят ограждения вокруг своих продуктов, чтобы злоумышленники не могли использовать их в своих целях, но реальность такова, что на рынке уже есть нецензурированные языковые модели, которыми могут воспользоваться хакеры.
Эксперты по понятным причинам обеспокоены тем, как злоумышленники могут использовать ИИ в своих целях и обман с его помощью может быть лишь верхушкой айсберга. Реальный риск заключается в том, что однажды искусственный интеллект может выйти из-под контроля человека.
Сегодня искусственный интеллект, способный уклоняться от человеческого контроля, сегодня звучит как сюжет научно-фантастического фильма, но на самом деле для технологической индустрии это неизбежно. И с каждым днем эта тема превращается в более серьезную дискуссию в техно-сообществе.
Мнение и прогнозы экспертов по этому поводу разнятся, но все они проявляют обеспокоенность потенциальным апокалипсисом, который может быть вызван искусственным интеллектом. Даже соучредитель Anthropic AI Дарио Амодей, который инвестировал миллионы долларов в развитие искусственного интеллекта, оценивает риск на уровне 10-25%, а некоторые исследователи в области безопасности ИИ приводят цифры, превышающие 50%. Получается, что в Кремниевой долине даже те кто занимается созданием ИИ, пессимистично оценивают шансы человечества.
Страх по поводу возможного апокалипсиса вызван тем, что техногиганты сейчас участвуют в гонке за разработку самого мощного искусственного интеллекта. А значит, в конечном итоге они будут использовать искусственный интеллект для создания лучшего ИИ до тех пор, пока не будет создана сверхразумная система с возможностями, превосходящими человеческий разум. И если это может показаться надуманным, то стоит вспомнить, что крупные языковые модели вроде Gemini от Google, уже имеют новые возможности, вроде языкового перевода, выходящих за рамках обычных перевочиков.
Так называемые защитные ограждения, которые в настоящее время выстроены создателями вокруг таких платформ, как Midjourney и ChatGPT, недостаточно, тем более что сами разработчики часто не могут объяснить нестабильное поведение своих систем. Есть ли решение этой проблемы? У специалистов из Кремниевой долины пока нет на это ответа. А крупные технологические компании продолжают внедрять инновации на основе ИИ так же безрассудно, как и всегда. Буквально в прошлом месяце Google и Microsoft сократили рабочие места в своих командах, отвечающих за безопасность. Последняя, как сообщается, уволила всю свою команду, занимающуюся продвижением этических инноваций в области искусственного интеллекта.
И тут особняком стоит Илон Маск, с которым трудно не согласиться, когда он говорит о том, что сектор искусственного интеллекта отчаянно нуждается в реформах и регулировании. После того, как Маск, а также соучредитель Apple Стив Возняк и другие высказали обеспокоенность, OpenAI в прошлом году согласилась поставить на паузу обучение новых языковых моделей. Однако сейчас GPT-5 находится в стадии активной разработки, и гонка за достижением сверхразумного ИИ продолжается, в результате чего вопрос безопасности и будущего человечества стоит как никогда остро.