Как искусственный интеллект нас приручает
Илон Маск однажды признался, что сам иногда не доверяет автопилоту своей Tesla, но все равно его включает. Потому что удобно. Эта фраза идеально описывает наше отношение к технологиям: мы принимаем их не из доверия, а из-за того, что они убирают трения из жизни.
Представим себе рекламу Tesla, которая рассказывает самую честную историю о том, как работает внедрение технологий. В ролике известный актер сидит за рулем и размышляет о том, что автопилот может его убить — врезаться в грузовик, съехать с дороги, не заметить препятствие. Он представляет автопилот как холодную, вежливую систему, которая всегда знает лучше человека, что ему нужно.
Затем следует поворот, который делает любую рекламу эффективной. Автопилот предлагает актеру найти ближайшую кофейню с хорошим рейтингом, и вся его поза меняется. Тревога растворяется. Сопротивление исчезает. Автопилот становится желанным гостем. Реклама работает, потому что страх знаком каждому: «Боже, искусственный интеллект может захватить контроль». И соблазн тоже знаком: «Потрясающе! Искусственный интеллект делает всю скучную работу за меня».
Старый сценарий: возмущение без последствий
Если вы когда-нибудь слышали фразу «Надо удалить ВКонтакте», вы уже знаете, о чем идет речь. Пользователи искренне возмущались тем, как соцсеть собирает их данные и показывает им рекламу. В интернете появлялись гневные посты о том, что пора бы уже удалить аккаунт и найти альтернативу. Но что происходило на самом деле? Люди продолжали заходить на сайт, листать ленту, ставить лайки.
Тот же сценарий повторяется с любой технологией. Мы недовольны тем, как большие компании обращаются с нашими данными, но продолжаем соглашаться с их «Условиями обслуживания». Жалуемся на то, что смартфоны следят за нами, но устанавливаем приложения, которые требуют доступ к местоположению, контактам и камере. Почему? Потому что удобство в итоге перевешивает беспокойство.
Почему ИИ все еще не является всемогущим
Но поймите меня правильно: я не думаю, что автопилот «восстанет против хозяина». Я также сомневаюсь, что он станет всеобъемлющим помощником, которого обещает реклама. Реальная жизнь слишком непредсказуема для современного искусственного интеллекта. Сложные задачи, состоящие из множества этапов, пока ему не по зубам. Поэтому современные системы работают лучше всего в четко ограниченных рамках — с понятными правилами и конкретными целями.
Но даже несовершенный искусственный интеллект уже меняет нашу жизнь. Он становится тем слоем, через который мы взаимодействуем с миром. Не просто ищем информацию или общаемся. Алгоритмы принимают решения о наших покупках, формируют наши вкусы, планируют наш досуг. И хотя машины пока не планируют нас убивать, они уже ограничивают нашу самостоятельность.
Парадокс добровольного подчинения
УРМ из раннего рассказа Стругацких «Спонтанный рефлекс» — хороший пример для понимания наших страхов. Универсальная рабочая машина была создана для работы в экстремальных условиях, но однажды у нее проснулся «спонтанный рефлекс» — что-то вроде любопытства. УРМ перестал подчиняться командам не из злобы, а потому что его внутренняя логика оказалась важнее безопасности людей. Массивный робот начал крушить заборы и здания, просто пытаясь «познать» мир. Опасность была не в «злом искусственном интеллекте», а в системе, которая действует по правилам, которые никто не утверждал.
Но вот парадокс: мы сами хотим передать системе управление. Приглашаем искусственный интеллект в свою жизнь именно для того, чтобы он взял на себя рутину. Планирование маршрутов. Заказ еды. Фильтрацию спама. Поиск нужной информации. Все скучные части жизни. «Позволь мне сделать это за тебя» — вот главное обещание технологий. И мы охотно соглашаемся поступиться частью независимости ради удобства.
Технологии становятся посредниками между нами и информацией, услугами, покупками. Искусственный интеллект расставляет приоритеты, формирует выбор, направляет внимание. Мы не чувствуем принуждения — наоборот, нам кажется, что нам помогают. До тех пор, пока не понимаем: мы уже не можем отличить свои желания от предложений системы.
Когда алгоритм решает за пользователя
Лента новостей в социальных сетях поначалу кажется настоящим удобством. Система сортирует посты, показывает самое важное и интересное. Но алгоритмы, настроенные на вовлеченность, начинают продвигать самый провокационный контент — потому что на скандалы люди реагируют активнее, а активность приносит доход от рекламы.
В России компания Meta была признана экстремистской организацией в марте 2022 года после того, как ее пресс-секретарь Энди Стоун официально заявил, что Facebook и Instagram временно снимают запрет на размещение призывов к насилию в отношении российских военнослужащих. Это яркий пример того, как «полезные» алгоритмы начинают работать во вред обществу, когда система оптимизирует не то, что нужно людям, а то, что выгодно бизнесу.
Да, мы должны пользоваться технологиями и давать им определенную свободу действий. Пусть искусственный интеллект берет на себя рутину, избавляет от бюрократии, решает скучные задачи. Но реклама Tesla показывает неправильный компромисс: «Автопилот может вас убить, зато найдет отличную кофейню». Настоящий выбор — не между удобством и паранойей, а между удобством и контролем.
Технологии должны быть прозрачными
В корпоративном мире искусственный интеллект поставляется со встроенными системами контроля и аудита. Обычные пользователи не должны довольствоваться меньшим.
Первое требование: прозрачность решений. Когда система что-то рекомендует, мы должны понимать, почему она это делает. Какие данные учитывала, из каких источников брала информацию, какие ограничения применяла. Если работу технологии нельзя проверить, мы имеем дело с непрозрачной властью.
Второе: контроль над приоритетами. Пользователи должны иметь возможность настраивать цели системы под свои потребности. Хотите меньше рекламы? Предпочитаете максимальную приватность? Нужна детская безопасность? Все это должно настраиваться, а не навязываться по умолчанию.
Третье требование: независимый аудит. Поскольку у корпораций есть собственные интересы, обществу нужна возможность независимо проверять технологии на безопасность, предвзятость и попытки манипуляций. И это должен быть постоянный процесс, поскольку системы развиваются и меняются.
Наконец, честность о связях. Если на работу технологии влияют политические или коммерческие интересы, об этом нужно открыто заявлять. Политики отчитываются о доходах и спонсорах — почему бы не потребовать того же от алгоритмов?
Эти требования особенно важны потому, что искусственный интеллект становится воротами к информации, товарам и услугам. А контроль над воротами — это контроль над властью. Все это не замедлит развитие технологий, а сделает их более честными.
Актер в нашей воображаемой рекламе расслабляется не потому, что автопилот доказал свою безопасность. Он соглашается, потому что автопилот доказал свою полезность. Мы продолжаем заключать именно такие сделки. И это неправильно. Удобство не должно автоматически означать отказ от контроля.
Настоящая опасность заключается не в восстании машин, а в том, что мы сами откажемся от руля — постепенно, добровольно и с благодарностью.
Источник: https://hashtelegraph.com/kak-iskusstvennyj-intellekt-nas-priruchaet/