В последние месяцы Конгресс и администрация США всеми способами пытаются лучше понять риски и преимущества искусственного интеллекта (ИИ).
В то же время чат-боты на основе
искусственного интеллекта (ChatGPT от OpenAI и Bard от Google), а также
инструменты на базе видео, аудио и изображений, усиливают опасения американских
политиков по поводу распространения ложной информации из «галлюцинаций» или из
массива фейков, которыми чат-боты обмениваются между собой. Также обсуждаются
дополнительные риски того, что технологии могут быть использованы в качестве
оружия.
Чуть больше недели назад
американские сенаторы провели свой первый секретный брифинг на тему
искусственного интеллекта, где выразили повышенную озабоченность относительно
рисков, связанных с данной технологией. Речь также шла об отсутствии в
законодательном поле США четких направлений по регулированию стремительно
развивающейся отрасли. Метко высказался по этому поводу сенатор-республиканец
от штата Луизиана Джон Нили Кеннеди: «У ИИ есть невероятный потенциал сделать
нашу жизнь лучше... Если это не убьет нас первыми».
В чем, собственно, состоит суть
волнений в США, когда речь заходит об ИИ. Суть в том, что у нас опасаются, что
иностранные структуры (хороший пример тут – Россия или Китай) будут влиять на
нашу государственную систему. Не просто смогут влиять на наши выборы или еще
какие-то значительные события, а на наши крупные корпорации, на нашу экономическую
систему в целом. Это всех сфер жизни касается – и политики, и экономики. Ведущие
компании США, те, кто находится в этом ИИ-мире, поддерживают наше общее волнение.
Они говорят, мол, политики абсолютно правы потому, что, в принципе, тут же не
идет речь о правде, а имеет место имитация реальности.
Посредством ИИ мы попадаем как будто
бы в видеоигру. Это как извращение будущего. Мы попадаем туда, где, например, все
может стать фейковым – счета компаний, фотографии людей, данные разных служб и
так далее. Поэтому и возникает страх относительно того, что ожидается в будущем.
Одно дело, когда что-то создавалось
хоть и, скажем так, несколько корявой ординарной технологией, где работали реальные
люди, где можно было что-то реально разоблачить или понять, то ИИ создает мир,
где можно будет еще намного больше, но уже искусственно, влиять на СМИ,
усиливать пропаганду, корректировать общественное мнение. У нас на разных
уровнях этот вопрос обсуждается именно в подобном ключе. Что можно будет
проникать в то, что секретно; что можно будет еще больше производить хакерских
атак; что-то еще чаще взламывать или кого-то подчинять. Все может кардинально
поменяться, кардинально.
Поэтому, наши конгрессмены и сенаторы
говорят, что, во-первых, необходимы законы, которые бы как-то это все
регламентировали. Во-вторых, нужна прозрачность в процессе деятельности ИИ-мира.
Например, сейчас у меня есть клиент,
который хочет сделать личный блог. Я ему посоветовал хороших консультантов, так
вот они говорят, что известный ChatGPT уже везде блокируется. Они говорят, что
могут разрабатывать идеи, не вопрос, но должны быть живые люди, которые будут в
итоге все переписывать. Потому, что разные системы уже подхватывают эти базовые
разработки, как тот же ChatGPT, и блокируют их. Поэтому, человек сможет публиковать
что-то у себя, например, на сайте, но чтобы это захватывалось Google и
показывалось при поиске – тут возникнут проблемы. У другого моего приятеля есть
компания, связанная с PR,
и они тоже не могут пользоваться продуктами ИИ потому, что те начинают блокироваться
везде.
Поэтому, у нас, как правильно отмечают
сенаторы США, волнение больше о том, что станет легче обманывать. Все, чего мы
боимся или с чем сражаемся, станет мега мощнее и уже крайне тяжело будет это поймать.
Вопрос опять же об ответственности, как для СМИ. Системы ИИ – это же, по сути,
масс медиа. К примеру, кому-то уже не нужно будет в реальности мотивировать
какие-то тупые маргинальные группы, чтобы они кого-то уничтожили, мотивировать всплеск
Cancel Culture (культуры отмены) и так
далее. Человек уже может все это самостоятельно создать. Он уже сам может
создать, например, свою армию ботов. Он может сам создать движение, диаспору.
Тоесть, если кто-то захочет, чтобы те же иранцы в том же LA начали резко ненавидеть какую-то тему,
то никого не нужно будет ходить мобилизировать и уговаривать, а стоит лишь
создать фейковую группу от якобы какой-то большой иранской общины и все будет
быстро и эффективно.
Вот это и вызывает в США страх и
волнение. Проблема, как говорят сами политики, в том, что всегда очень тяжело
регулировать технологии. ИИ – технологии, которые не имеют барьеров. ИИ может
быть везде. Но, наши политики хорошо понимают, что и остановить это уже тоже невозможно.
Кто и как сможет остановить ИИ? Никак. То, что сами компании сейчас блокируют
публикации, которые генерируются через ChatGPT, так это временное явление. Вот
поэтому наши политики обеспокоены и соглашаются с тем, что проблема есть, ее нужно
продолжать обсуждать и как-то решать. Что-то нужно сделать, они уверены, иначе
эти новые технологии могут уничтожать наши ценности. Технологии будут
маскировать правду, будут открывать двери для иностранных соперников, чтобы те
влияли не только на нашу политическую жизнь, а и на все наши системы
функционирования. На нашу банковскую систему, это как пример. Поэтому, сейчас у
нас действительно определенная паника касаемо этого вопроса.
Я думаю, что обязательно по этой
теме будут какие-то новые законы приниматься, будут новые нормы регистрации
каких-то инновационных вещей. И думаю, что будут также новые наказания для тех,
кто захочет воспользоваться системами ИИ неправильно или кому-то во вред.
Системы ИИ сейчас в США – очень
важная тема. Мы впереди всех по многим вопросам, поэтому для нас это так и
актуально. Сейчас, я бы сказал, мы вошли в технологический кризис и нужно
думать, как его минимизировать в пользу здравого смысла.
Рубрика "Блоги читачів" є майданчиком вільної журналістики та не модерується редакцією. Користувачі самостійно завантажують свої матеріали на сайт. Редакція не поділяє позицію блогерів та не відповідає за достовірність викладених ними фактів.