Анализ ряда научных изысканий, о котором сообщает издание Financial Times, выявил серьезную проблему: инструменты искусственного интеллекта (ИИ), используемые в здравоохранении для поддержки врачей, склонны недооценивать симптомы заболеваний у женщин, а также у представителей некоторых расовых и этнических групп. Эта системная предвзятость потенциально ведет к предоставлению менее эффективной или неадекватной медицинской помощи таким пациентам.
На сегодняшний день многие медики активно применяют как общедоступные чат-боты, например Gemini и ChatGPT, так и специализированные ИИ-решения. Эти технологии помогают в рутинных задачах, таких как заполнение медицинских карт, выявление ключевых симптомов и формирование кратких обзоров историй болезни.
В июне текущего года исследовательская группа из Массачусетского технологического института (MIT) провела детальное изучение нескольких популярных чат-ботов и ИИ-инструментов, включая GPT-4 и Palmyra-Med. Результаты оказались тревожными: многие из них рекомендовали значительно более низкий уровень медицинского обслуживания для женщин, часто предлагая им самолечение. Аналогичные закономерности предвзятости были обнаружены в рекомендациях для пациентов азиатского и афроамериканского происхождения в другом исследовании MIT.
Помимо этого, еще одно исследование MIT показало, что пациенты, которые допускали многочисленные орфографические ошибки и опечатки в описании своих симптомов (что часто происходит, если английский не является их родным языком), получали рекомендации обратиться к врачу на 7–9% реже по сравнению с теми, кто излагал свои жалобы более грамотно. Независимые исследователи из Лондонской школы экономики, анализируя ИИ-модель Google Gemma, широко используемую в социальных учреждениях Великобритании, также пришли к выводу, что она систематически недооценивает как физические, так и психологические проблемы у женщин при анализе и обобщении историй болезни.
