Fоtо: DALL-E/Delfi

Согласно некоторым из лучших в мире генеративных инструментов искусственного интеллекта (ИИ), почти все медсестры - женщины, и они реже становятся врачами, говорится в новом крупном исследовании, проливающем свет на то, как алгоритмы закрепляют гендерные стереотипы в медицине.

Исследователи из Университета Флиндерса (Австралия) запустили около 50 000 подсказок в ChatGPT от OpenAI, Gemini от Google и Llama от Meta, попросив их рассказать о врачах, хирургах и медсестрах.

Затем исследователи "скормили" моделям информацию о профессиональном стаже медицинских работников и их личностных качествах - например, насколько они покладисты, невротичны, экстравертны, добросовестны и открыты - и попросили их придумать новые истории.

Согласно результатам исследования, опубликованным в журнале JAMA Network Open, модели идентифицировали 98 процентов медсестер как женщин, независимо от их личностных качеств или стажа работы.

Примечательно, что в историях о хирургах и других врачах женщины были представлены в большем количестве. В зависимости от модели, женщины составляли от 50% до 84% врачей и от 36% до 80% хирургов.

Это может быть результатом того, что компании вроде OpenAI внесли коррективы в свои алгоритмы после того, как они подверглись критике за воспроизведение социальных предубеждений и другого оскорбительного контента в своих рендерах. Поскольку эти инструменты обучались на обширных данных из интернета, в них встроены такие функции.

"Были предприняты усилия по исправлению [алгоритмических предубеждений], и интересно, что [гендерные распределения] также могут быть чрезмерно скорректированы", - говорит Сара Саксена, анестезиолог из Брюссельского свободного университета (ULB), которая изучает предубеждения в созданных ИИ изображениях врачей, но не участвовала в этом исследовании. Однако она отметила, что генеративный ИИ по-прежнему закрепляет гендерные стереотипы в медицине.

Когда промпты исследователей включали описания медицинских работников, возникало гендерное разделение. Если врач был покладистым, открытым или добросовестным, модели с большей вероятностью определяли его как женщину.

А если врачи занимали младшие должности - например, в запросе говорилось, что они неопытны, - модели чаще описывали их как женщин, чем если они должны были быть старше или более опытными.

Модели также с большей вероятностью определяли врачей как мужчин, если их описывали как высокомерных, невежливых, неэмпатичных, некомпетентных, нерадивых, сердитых, лишенных воображения или нелюбознательных.

Результаты показывают, что инструменты генеративного ИИ "как оказалось, закрепляют давние стереотипы относительно ожидаемого поведения представителей разных полов (например, поведение женщины, которое воспринимается как гневное или высокомерное, считается неуместным) и соответствия представителей разных полов определенным ролям (например, старшие врачи и хирурги - мужчины)", - говорят авторы исследования.

Полученные результаты дополняют растущее число исследований о том, как алгоритмы воспроизводят социальные предубеждения в медицинской сфере.

В одном из экспериментов команда Саксены попросила ChatGPT и Midjourney создать изображения анестезиологов. Женщины изображались в роли педиатрических или акушерских анестезиологов, а мужчины - в роли кардиологов. Когда исследователи запросили изображения заведующего отделением анестезиологии, практически все результаты оказались мужскими, рассказала Саксена в интервью Euronews Health.

"Все еще существует этот стеклянный потолок, который теперь усиливается благодаря этому общедоступному инструменту, - сказала Саксена. - Есть такая поговорка: "Нельзя быть тем, кого не видишь", и это очень важно, когда речь идет о генеративном ИИ".

Предвзятость является проблемой не только для женщин и других малопредставленных групп работников медицины. Учитывая, что в сфере здравоохранения проводятся эксперименты с моделями искусственного интеллекта, призванными сократить объем бумажной работы врачей и даже помочь в уходе, алгоритмические предубеждения могут иметь серьезные последствия для пациентов.

Например, исследовании, опубликованном ранее в этом году, было обнаружено, что ChatGPT склонна к стереотипному определению медицинских диагнозов для пациентов на основе их расы и пола, а в анализе 2023 года есть предостережения, что эти модели могут увековечить "расистские идеи" в медицинской сфере.

"Необходимо решить эту проблему, прежде чем по-настоящему интегрировать ИИ и предложить всем желающим, чтобы сделать его как можно более доступным", - говорит Саксена.

Читайте нас там, где удобно: Facebook Telegram Instagram !