В понедельник, 22 мая 2023 г., проверенный аккаунт Twitter под названием «Bloomberg Feed» поделился твитом, в котором утверждалось, что там был взрыв в Пентагоне, сопровождаемый изображением. Если вам интересно, какое отношение это имеет к искусственному интеллекту (ИИ), изображение было создано ИИ, а твит быстро стал вирусным и вызвал кратковременное падение фондового рынка. Все могло быть гораздо хуже — яркое напоминание об опасностях искусственного интеллекта.
Опасности искусственного интеллекта
Нам следует беспокоиться не только о фейковых новостях. Существует множество непосредственных или потенциальных рисков, связанных с ИИ, от рисков, касающихся конфиденциальности и безопасности, до предвзятости и вопросов авторского права. Мы углубимся в некоторые из этих опасностей искусственного интеллекта, посмотрим, что делается для их смягчения сейчас и в будущем, и спросим, перевешивают ли риски ИИ преимущества.
Фейковые новости
Когда дипфейки впервые появились, возникли опасения, что их можно использовать со злыми намерениями. То же самое можно сказать и о новой волне Генераторы изображений ИИ, такой как DALL-E 2, Midjourney или DreamStudio. 28 марта 2023 года фейковый Изображения Папы Франциска, созданные искусственным интеллектом в белой куртке-пуховике Balenciaga, наслаждающийся несколькими приключениями, в том числе катанием на скейтборде и игрой в покер, стал вирусным. Если вы не изучите изображения внимательно, будет трудно отличить эти изображения от реальных вещей.
Хотя пример с Папой Римским, несомненно, был немного забавным, изображение (и сопровождающий его твит) о Пентагоне было совсем не таким. Поддельные изображения, созданные ИИ, способны нанести ущерб репутации, положить конец бракам или карьере, вызвать политические волнения и даже начать войны, если ими владеют не те люди — короче говоря, эти изображения, созданные ИИ, могут быть чрезвычайно опасными, если ими злоупотреблять.
Благодаря тому, что генераторы изображений с использованием искусственного интеллекта теперь бесплатно доступны каждому и Photoshop добавляет генератор изображений AI его популярное программное обеспечение, возможности манипулировать изображениями и создавать фейковые новости стали больше, чем когда-либо.
Конфиденциальность, безопасность и взлом
Конфиденциальность и безопасность также вызывают серьезную озабоченность, когда речь идет о рисках, связанных с ИИ: ряд стран уже запретили ChatGPT OpenAI. Италия запретила эту модель из соображений конфиденциальности, полагая, что она не соответствует Европейскому общему регламенту защиты данных (GDPR), а правительства Китая, Северной Кореи и России запретили ее из-за опасений, что она будет распространять дезинформацию..
Так почему же нас так беспокоит конфиденциальность, когда дело касается ИИ? ИИ-приложения и системы собирают большие объемы данных для обучения и прогнозирования. Но как эти данные хранятся и обрабатываются? Существует реальный риск утечки данных, взлома и попадания информации в чужие руки.
Под угрозой находятся не только наши личные данные. Взлом ИИ представляет собой реальный риск — такого еще не произошло, но если злоумышленники смогут взломать системы ИИ, это может иметь серьезные последствия. Например, хакеры могут управлять беспилотными транспортными средствами, взламывать системы безопасности искусственного интеллекта, чтобы получить доступ к местам с высоким уровнем безопасности, и даже взламывать системы вооружения с защитой искусственного интеллекта.
Эксперты Агентства передовых оборонных исследовательских проектов Министерства обороны США (DARPA) осознают эти риски и уже работают над проектом DARPA «Гарантия устойчивости искусственного интеллекта от обмана» (GARD), решая проблему с нуля. Цель проекта — обеспечить, чтобы устойчивость к взлому и фальсификации была встроена в алгоритмы и искусственный интеллект.
Нарушение авторских прав
Еще одна опасность ИИ — нарушение авторских прав. Возможно, это звучит не так серьезно, как некоторые другие опасности, о которых мы упомянули, но разработка моделей искусственного интеллекта, таких как GPT-4, подвергает каждого повышенному риску нарушения прав.
Каждый раз, когда вы просите ChatGPT создать что-то для вас — будь то запись в блоге о путешествиях или новое название вашего бизнеса — вы передаете ему информацию, которую он затем использует для ответа на будущие запросы. Информация, которую он вам передает, может нарушать чьи-либо авторские права, поэтому так важно использовать детектор плагиата и редактировать любой контент, созданный ИИ, перед его публикацией.
Социальная предвзятость и предвзятость данных
ИИ не человек, поэтому он не может быть предвзятым, верно? Неправильный. Люди и данные используются для обучения моделей ИИ и чат-боты. Это означает, что предвзятые данные или личности приведут к предвзятому ИИ. В ИИ есть два типа предвзятости: социальная предвзятость и предвзятость данных.
Поскольку в повседневном обществе присутствует множество предубеждений, что произойдет, когда эти предубеждения станут частью ИИ? Программисты, ответственные за обучение модели, могут иметь предвзятые ожидания, которые затем попадают в системы искусственного интеллекта..
Или данные, используемые для обучения и разработки ИИ, могут быть неверными, предвзятыми или собраны недобросовестно. Это приводит к предвзятости данных, которая может быть столь же опасной, как и предвзятость общества. Например, если система распознавания лиц обучена с использованием в основном лиц белых людей, ей может быть сложно распознавать лица представителей групп меньшинств, что увековечивает угнетение.
Роботы отбирают нашу работу
Разработка чат-ботов, таких как ChatGPT и Google Bard, породила совершенно новую проблему, связанную с искусственным интеллектом: риск того, что роботы лишит нас рабочих мест. Мы уже видим, как писателей в технологической отрасли заменяет искусственный интеллект, разработчики программного обеспечения обеспокоены тем, что потеряют работу из-за ботов, а компании используют ChatGPT для создания контента для блогов и социальных сетей вместо того, чтобы нанимать писателей-людей.
Согласно Доклад Всемирного экономического форума «Будущее рабочих мест за 2020 год», ожидается, что к 2025 году ИИ заменит 85 миллионов рабочих мест во всем мире. Даже если ИИ не заменит писателей, многие уже используют его в качестве инструмента. Тем, кто работает на риске быть замененным искусственным интеллектом, возможно, придется адаптироваться, чтобы выжить. Например, писатели могут стать инженерами по подсказкам искусственного интеллекта, что позволит им работать с такими инструментами, как ChatGPT, для создания контента, а не заменяться этими моделями.
Потенциальные риски ИИ в будущем
Все это непосредственные или надвигающиеся риски, но как насчет некоторых менее вероятных, но все же возможных опасностей ИИ, которые мы можем увидеть в будущем? К ним относятся такие вещи, как искусственный интеллект, запрограммированный на причинение вреда людям, например, автономное оружие, обученное убивать во время войны.
Тогда существует риск того, что ИИ может целенаправленно сосредоточиться на своей запрограммированной цели, развивая деструктивное поведение, пытаясь достичь этой цели любой ценой, даже когда люди пытаются помешать этому.
Скайнет научил нас, что происходит, когда ИИ становится разумным. Однако, хотя инженер Google Блейк Лемуан, возможно, пытался убедить всех, что LaMDA, генератор чат-ботов с искусственным интеллектом от Google оказался разумным еще в июне 2022 года, к счастью, на сегодняшний день нет никаких доказательств того, что это правда.
Проблемы регулирования ИИ
В понедельник, 15 мая 2020 г., Генеральный директор OpenAI Сэм Альтман присутствовал на первых слушаниях в Конгрессе по искусственному интеллекту, предупреждение: «Если эта технология пойдет не так, она может пойти совсем не так». Руководитель OpenAI ясно дал понять, что поддерживает регулирование, и вынес на слушания многие свои собственные идеи. Проблема в том, что ИИ развивается с такой скоростью, что трудно понять, с чего начать регулирование..
Конгресс хочет избежать тех же ошибок, которые были допущены в начале эры социальных сетей, и группа экспертов вместе с лидером большинства в Сенате Чаком Шумером уже работает над правилами, которые потребуют от компаний раскрывать, какие источники данных они использовали для обучения. модели и кто их обучал. Однако может пройти некоторое время, прежде чем именно то, как будет регулироваться ИИ, станет ясно, и, несомненно, со стороны компаний, занимающихся ИИ, возникнет негативная реакция.
Угроза искусственного общего интеллекта
Существует также риск создания общего искусственного интеллекта (AGI), который сможет выполнять любые задачи, которые может выполнить человек (или животное). Часто упоминаемый в научно-фантастических фильмах, мы, вероятно, еще в десятилетиях от такого создания, но если и когда мы создадим ОИИ, он может представлять угрозу для человечества.
Многие общественные деятели уже поддерживают мнение о том, что ИИ представляет экзистенциальную угрозу для человечества, в том числе Стивен Хокинг, Билл Гейтс и даже бывший генеральный директор Google Эрик Шмидт, который заявил: «Искусственный интеллект может представлять экзистенциальные риски, и правительствам необходимо знать, как чтобы убедиться, что технология не используется злоумышленниками».
Итак, опасен ли искусственный интеллект и перевешивают ли его риски его преимущества? Решение по этому вопросу еще не принято, но мы уже видим доказательства некоторых рисков, окружающих нас прямо сейчас. Другие опасности вряд ли реализуются в ближайшее время, если вообще реализуются. Однако ясно одно: опасность ИИ не следует недооценивать. Крайне важно с самого начала обеспечить надлежащее регулирование ИИ, чтобы свести к минимуму и, возможно, смягчить любые будущие риски.
.