Благо или опасность: почему Илон Маск, Стив Возняк и многие другие против развития ИИ?
Сложно поспорить с тем, что мы вступили в новую эру, эру искусственного интеллекта. Инструменты на основе ИИ могут настолько хорошо имитировать процессы человеческого интеллекта, что становится трудно сказать, был ли задействован искусственный интеллект при выполнении той или иной задачи. И хотя, казалось бы, такие достижения научно-технического процесса должны быть встречены максимально оптимистично, в этот раз все наоборот, и многие пользователи вполне обоснованно задаются вопросом о том, опасен ли на самом деле искусственный интеллект и следует ли использовать его с осторожностью.
Действительно, опасности, которые несет в себе искусственный интеллект, от сокращения рабочих мест до распространения дезинформации, еще никогда не казались более ощутимыми и реальными. Более того, современные системы на основе искусственного интеллекта стали настолько сложными, что даже их создатели не могут предсказать, как они себя поведут.
Надо сказать, что скептично в отношении искусственного интеллекта настроена не только широкая общественность. Так, недавно свои сомнения по поводу активного использования систем с машинным обучением и ИИ выразили генеральный директор Tesla Илон Маск и соучредитель Apple Стив Возняк. Так почему же некоторые из авторитетных персон в области технологий внезапно отвернулись от ИИ? Давайте разбираться.
С момента запуска ChatGPT в конце прошлого года мы может наблюдать изменение отношения технологической отрасли к разработке ИИ. Возьмем, к примеру, Google. Интернет-гигант впервые продемонстрировал свою языковую модель на основе искусственного интеллекта, получившую название LaMDA, еще в 2021 году. Однако компания до последнего хранила молчание по поводу публичного доступа к своей система. Однако после сенсационного запуска ChatGPT в Google был объявлен так называемый «красный код», а вскоре после этого интернет-гигант анонсировал Bard, генеративный чат-бот с искусственным интеллектом на базе LaMDA, который должен составить конкуренцию ChatGPT и Bing Chat.
Из официальной документации Google по LaMDA стало известно, что компания потратила более двух лет на точную настройку своей языковой модели для обеспечения безопасности, под которой подразумевается предотвращение генерирования вредных советов или ложных заявлений. Однако внезапная спешка с запуском Bard могла заставить компанию отказаться от этих усилий по обеспечению безопасности на полпути.
Помимо Google в гонку ИИ включились такие компании, как Stability AI и Microsoft. Однако многие эксперты считают, что этика и безопасность отошли на второй план в погоне за прибылью и рыночной долей. Конкуренция вынуждает технологических гигантов идти на компромисс в отношении этики и безопасности ИИ.
Учитывая темпы усовершенствования искусственного интеллекта, неудивительно, что такие персоны, как Илон Маск и Стив Возняк призывают IT-компании поставить на паузу разработку мощных систем искусственного интеллекта. К ним присоединились и ряд других экспертов, в том числе сотрудники компаний из Силиконовой долины, работающие в подразделениях, связанных с искусственным интеллектом. Они в открытом письме перечислили основные причины, почему они считают ИИ опасным. Вот некоторые из их аргументов:
— Мы еще не до конца понимаем современные системы ИИ и все их потенциальные риски. Несмотря на это, мы находимся на пути к развитию «нечеловеческого разума, который в конечном итоге может превзойти нас численностью, перехитрить и заменить нас».
— Разработка продвинутых моделей ИИ должна регулироваться. Более того, компании не должны разрабатывать такие системы до тех пор, пока не продемонстрируют общественнности свой план по минимизации рисков, связанных с использованием .
— Компании должны больше инвестировать в исследования безопасности и этики ИИ. Кроме того, этим исследовательским группам требуется много времени, чтобы найти решения, прежде приступать к обучению более продвинутых моделей, таких как GPT-5.
— Правительствам необходимо создать агентства национального уровня, которые будут контролировать развитие ИИ и предотвращать злоупотребления.
Проще говоря, подписавшие это открытое письмо эксперты просто хотят, чтобы крупные компании вроде OpenAI и Google, на время отложили обучение продвинутых моделей своих систем с ИИ до тех, пор, пока не будут внесены радикальные улучшения с точки зрения безопасности таких решений.
В то же время генеральный директор Google Сундар Пичаи считает, что в будущем обществу так или иначе придется адаптироваться к искусственному интеллекту. По его словам, технологии ИИ повлияют на «каждый продукт в каждой компании» в течение следующего десятилетия. Хотя это может привести к сокращению рабочих мест, глава Google уверен, что производительность сотрудников во многих отраслях заметно улучшится по мере того, как ИИ станет более совершенным. Когда Пичаи спросили, опасны ли нынешние темпы развития ИИ, он заявил, что общественно непременно найдет способ адаптироваться к этому.
С другой стороны, Илон Маск считает, что стремительное развитие ИИ вполне может означать конец цивилизации. Однако это не помешало ему основать новую компанию, специализирующуюся на изучении и разработке решений в области искусственного интеллекта.
Между тем, генеральный директор Microsoft Сатья Наделла считает, что искусственный интеллект будет соответствовать предпочтениям общественности только в том случае, если он будет передан в руки реальных пользователей. Это заявление отражает стратегию Microsoft по внедрению Bing Chat в максимально возможное количество приложений и служб.
Ранее в OpenAI заявили, что в настоящее время компания не работает над преемником GPT-4. Но это обязательно изменится по мере роста конкуренции. Чат-бот Google Bard сейчас заметно уступает по своим возможностям ChatGPT, но мы знаем, что интернет-гигант наверняка захочет наверстать упущенное. А в отрасли, движимой прибылью, этика по-прежнему будет отходить на второй план, если только она не будет обеспечена на законодательном уровне. Будет ли искусственный интеллект завтрашнего дня представлять экзистенциальный риск для человечества? Время покажет.