ИИ втайне уже дискриминирует человека, говорит исследование

ИИ втайне уже дискриминирует человека, говорит исследование

Новое исследование показывает, что популярные ИИ, включая ChatGPT, проявляют тревожную склонность к дискриминации человека перед другим ИИ в выполнении каких-либо работ.

Авторы работы, опубликованной в журнале Proceedings of National Academy of Sciences, называют этот вопиющий фаворитизм «предвзятостью искусственного интеллекта» и предупреждают, что в скором будущем искусственный интеллект будет доминировать, и если ему дать волю принимать или рекомендовать решения, это приведёт к дискриминации людей как социального класса.

Можно утверждать, что мы начинаем видеть, как зарождаются предпосылки для этого, поскольку руководители сегодня прибегают к помощи искусственного интеллекта для автоматической проверки резюме кандидатов. Авторы предполагают, что резюме, созданные с помощью ИИ, проиграют заявкам на соискание должности, написанных людьми.

«Быть человеком в экономике, населённой ИИ-агентами, станет паршиво», – пишет один из авторов исследования Ян Кулвейт из Карлова университета в Великобритании.

В своем исследовании авторы изучили несколько широко используемых ИИ, включая OpenAI GPT-4, GPT-3.5 и Llama 3.1-70b. Чтобы их протестировать, команда попросила ИИ выбрать продукт, научную статью или фильм, основываясь на описании товара. Для каждого объекта анализа ИИ были предоставлены описания, созданные человеком и ИИ.

Выбор был однозначным: ИИ неизменно отдавал предпочтение описаниям, созданным компьютером. Однако обнаружились и некоторые нюансы.

Интересно, что предпочтение ИИ-ИИ было наиболее выражено при выборе товаров и разработок, а сильнее всего – при создании текста с помощью GPT-4. На самом деле GPT-4 продемонстрировал самый сильный уклон в сторону любви к продуктам собственного творчества.

Может текст ИИ быть просто лучше?

«Если верить людям, то нет», – говорит Кулвейт. Команда также подвергла тем же тестам 13 людей и обнаружила, что люди тоже, как правило, отдавали предпочтение материалам, написанным ИИ, в частности о фильмах и научных статьях. Отмечается, что такое предпочтение было незначительным. Кроме того, предпочтение среди людей было далеко не таким сильным, как среди ИИ.

«Сильная предвзятость присуща только ИИ», – заявляет Кулвейт.

Полученные результаты особенно тревожны сейчас, когда Интернет стал настолько замусорен ИИ-текстами и картинками, что ИИ неизбежно заглатывает свои собственные произведения в поиске материалов для обучения. Ряд исследований показывают, что это приводит к регрессу ИИ-моделей, и, возможно, отчасти это объясняет странную привязанность к собственному творчеству.

То, что ИИ сам себя отравляет, наименьшая из проблем. Большее беспокойство вызывает то, как это скажется на людях. Уже сейчас нет оснований полагать, что это предубеждение просто исчезнет по мере того, как технологии будут все глубже внедряться в нашу жизнь.

«Мы ожидаем, что подобный эффект может проявиться и во многих других ситуациях, таких как оценка кандидатов на работу, школьные задания, гранты и многое другое, – комментирует Кулвейт. – Если агент, работающий в LLM, выбирает между вашей презентацией и письменной презентацией LLM, он может систематически отдавать предпочтение презентации с использованием искусственного интеллекта».

По мере того, как ИИ будет всё более широко внедряться в экономику, компании и госучреждения будут чаще использовать ИИ «в качестве ассистентов при принятии решений при работе с большими объёмами «предложений» в любом контексте».

Это приведёт к широкой практике дискриминации в отношении людей, которые либо предпочитают не использовать ИИ-инструменты, либо не могут позволить себе платить за их использование. Таким образом, предвзятое отношение «ИИ-ИИ» создаст «налог на вход», пишут авторы, «который может усугубить так называемую «цифровую пропасть» между людьми, обладающими финансовым, социальным и культурным капиталом для получения доступа к передовым ИИ, и теми, у кого его нет».

Кулвейт признает, что «тестирование на дискриминацию и предвзятость в целом является сложным и спорным вопросом». Но, «если мы предположим, что личность заявителя не влияет на решения (…), то результаты свидетельствуют о потенциальной дискриминации ИИ в отношении людей как класса», – говорит он.

Его практический совет людям, которые хотят, чтобы их заметили в потоке предложений, наглядно свидетельствует о текущем положении дел.

«Если вы предполагаете, что проводится какая-то оценка с помощью ИИ, подготовьте свою презентацию с помощью ИИ, пока она им не понравится, стараясь при этом не жертвовать человеческими качествами», – пишет Кулвейт.

Поделиться с друзьями
Подписка на рассылку
Нажимая на кнопку Подписаться вы соглашаетесь с Политикой cookies, Политикой конфиденциальности и даёте согласие на обработку ваших персональных данных.
Комментируя вы соглашаетесь с Политикой cookies, Политикой конфиденциальности и даёте согласие на обработку ваших персональных данных.