Публикации

Проблемы и риски зависимости ИИ

Проблемы и риски зависимости от ИИ

Часть 1

Есть ли риск зависимости людей от искусственного интеллекта? Или не стоит это возводить в проблему?

Я думаю, что психологическая, эмоциональная зависимость — это не единственный риск.

Рисков много, и они все могут затрагивать различные аспекты жизни, от социальных и психологических до экономических и технологических. Хотя последние нам, психологам, конечно, менее интересны.

Какие основные риски от ИИ я вижу:

Утрата критического мышления.

Люди могут начать полагаться на искусственный интеллект, что уже и происходит, для принятия решения, вместо того, чтобы самостоятельно анализировать информацию. Риск в том, что снижается способность логическому анализу, пропадает творчество и критическое осмысление информации. Последние исследования показали, что использование искусственного интеллекта снижает когнитивные способности на 20%.

К примеру, если человек использует искусственный интеллект для решения большинства задач, он может утратить навыки, необходимые для самостоятельного и быстрого анализа сложных ситуаций.

Деградация социальных навыков.

Взаимодействие с искусственным интеллектом вместо реальных людей приводит к снижению эмпатии и приводит к тому, что наши коммуникативные навыки и способности, к примеру, строить человеческие отношения, падают, потому что искусственным интеллектом их строить не надо.

В чем здесь риск? Это, конечно же, изоляция, одиночество, потеря социальной активности. И мы это уже сейчас наблюдаем.

К примеру клиенты, думая, что решают проблему, читают умные тексты искусственного интеллекта. И уже с достаточно запущенными случаями появляются все-таки у нас, психологов.

Еще простой пример: человек может предпочесть общаться через чат-боты или виртуальных помощников и избегать живого общения. Что, собственно и происходит.

Безопасность данных и конфиденциальность.

Для работы с искусственным интеллектом требуется доступ к огромному объему персональных данных. Это создает риск их утечки и злоупотребления.

Мы уже такие случаи знаем, когда при сборе информации создаются фейки, почти неотличимые от людей, и с их помощью совершаются преступления.

Кроме того, сбор данных о поведении пользователей используется для создания рекламных компаний или даже для влияния на выбор. Ну а мы так вообще не договаривались, так ведь?

Отсутствие у ИИ моральной ответственности.

Если искусственный интеллект принимает решение за человека и человек его использует, то вопрос — кто несет ответственность за последствия этих решений? С одной стороны, как бы человек, который все это сделал. А с другой стороны, я считаю, что это сложная дилемма еще не решена. Поскольку кому вы предъявите? Компании, которая этот искусственный интеллект развивает?

То есть здесь риск размытия границ ответственности между человеком и машиной. И это приводит к серьезным этическим проблемам.

К примеру, в случае аварии беспилотного автомобиля, кто будет считаться виноватым? Производитель, программист или водитель?

Формирование предвзятости дискриминации.

Как ни странно, алгоритмы могут воспроизводить предвзятость, заложенную в данных, на которых они обучались. Это серьезнейшая проблема. Если внутри алгоритма кода есть небольшая ошибка, то она будет масштабироваться и портить работу всего интеллекта.

Какие здесь риски? Это усиление социальных расовых предубеждений, автоматизации дискриминационных практик, поскольку мы ее взяли и применили без критического анализа, про который я выше упомянул.

К примеру, системы автоматизированного найма могут отдавать предпочтение определенной группе населения, если их так настроить или хакнуть. И ничего вы с этим сделать не сможете, пока квалифицированные люди не перенастроют все это дело.

Завтра продолжим эту тему. Расскажу еще о 4 рисках и о своих идеях, что со всем этим делать.

Что думаете о вышеперечисленных рисках? Какие страшат, а какие не очень?


Потеря контроля над технологиями.

Сложные системы искусственного интеллекта постепенно становятся автономными. И люди теряют возможность полностью контролировать их работу.

Как только они начнут самонастраиваться и самообучаться, человечество ждет лотерея, что дальше придумает искусственный интеллект.

И здесь риск — это возникновение ситуаций, когда искусственный интеллект принимает решения, которые трудно понять и еще труднее изменить. Вот тут мы хлебнем по полной.

К примеру, автономные военные системы могут принимать решение о применении сил без участия человека. Вот если такое возникнет, мы получим Скайнет и фильм “Терминатор 2”.

По нашему с вами профилю — негативное влияние на психологическое здоровье.

Зависимость от искусственного интеллекта может вызвать стресс, тревожность, депрессию, особенно если человек чувствует себя заменяемым или контролируемым.

Это новые формы зависимости от виртуальных помощников — снижение самооценки, удовлетворенности жизнью.

К примеру, человек может испытывать стресс из-за невозможности справиться с задачами без помощи ИИ. Это тот же стресс, когда у ребенка отнимают телефон. В этом случае 3-е полушарие у человека отваливается, и он психологически чувствует себя очень дискомфортно. Вы можете это наблюдать ежедневно.

Для человека моего поколения потерять телефон — материальная, финансовая проблема. А для человека возрастом до 20 лет потерять телефон — это катастрофа.

______

Дальше будем конспирологией заниматься



Концентрация власти.

Эти технологии сосредотачивают огромную мощь в руках нескольких крупных корпораций и госструктур. Мы сейчас уже это наблюдаем.

Недавно китайский искусственный интеллект просто обвалил рынок, потому что он дешевле и интереснее. Это влияние, кстати, в том числе и на экономику. Мы не говорим сейчас про замену рабочих мест и каких-то специальностей. Я думаю, до психологов еще не скоро доберутся, хотя уже подбираются.

Здесь риск создания монополии: дальнейшее ограничение свободы выбора, усиления контроля над населением неочевидными способами.

Утрата культурного разнообразия.

Если технологии искусственного интеллекта глобализируются, они приведут к установлению каких-то отдельных определенных культурных стандартов и норм. И культурное разнообразие может исчезнуть. Исчезнут уникальные культурные особенности, какие-то оригинальные мировоззрения, оригинальные культурные традиции.

На это очень падки дети и подростки, которые могут местные культурные традиции, сами того не хотя, просто разрушить.

Собственно, что же с этим всем делать-то? Как минимизировать риски?

Запрещать это уже бессмысленно.

Поэтому нужно заниматься образованием и просвещением, то есть развивать цифровую грамотность, цифровую гигиену и критическое мышление. Чтобы искусственный интеллект был помощником, а не заменителем человека, его мозгов.

Думаю, нужно регулировать технологии, создавать законы, стандарты, которые делают применение ИИ более безопасным и прозрачным. И следить за этичностью использования искусственного интеллекта. Тут я не знаю, как это делать, но такая мысль у меня есть.

Нужно обязательно поддерживать человеческий фактор, то есть поощрять развитие навыков, которые искусственный интеллект не может заменить: творческие, эмпатические навыки. Вот как человеческого эмпатического психолога заменить? Ну, наверное, пока никак.

Этические разработки: понимание, что нужно людям. Направлять искусственный интеллект на благо общества, а не на его эксплуатацию. Как это сделать, я тоже не знаю. Это моя идея.

Скорее всего, через какое-то время мы столкнемся с конфликтами общества и искусственный интеллекта, и даже искусственных интеллектов между собой.

В общем, зависимость от ИИ неизбежна. Важно соблюдать баланс между удобством технологий и сохранением наших человеческих ценностей и мозгов.

Делитесь своими идеями, как ещё можно минимизировать риски внедрения в нашу жизнь нейросетей?

Заметки Автор: Олег Леконцев