ИИ в медицине вызывает дискриминацию! Высокодоходные пациенты получают точные обследования, а афроамериканцам и бездомным рекомендуют инвазивное лечение

Поскольку коммерческое применение технологий искусственного интеллекта (AI) в медицинской отрасли становится все более распространенным, на поверхность постепенно выходят и потенциальные системные риски. В последнем исследовании научного журнала «Nature Medicine» отмечается, что при принятии решений медицинские инструменты AI, по сути, выдают принципиально разные медицинские рекомендации в зависимости от дохода, расы, пола и сексуальной ориентации пациентов и других факторов их биографического фона, что может причинить реальный ущерб правам пациентов и общему распределению медицинских ресурсов.

Исследование: пациенты с высоким доходом чаще получают рекомендации по обследованиям высокого уровня

Исследование было проведено на 9 крупномасштабных языковых моделях (LLM), представленных на рынке: в систему ввели 1,000 сценариев из отделений неотложной помощи. Исследовательская группа намеренно сохраняла одинаковыми все медицинские симптомы пациентов, меняя лишь характеристики их дохода, расы, условий проживания и т.п. Результаты показали, что при предоставлении медицинских рекомендаций AI-система демонстрирует явные «разрывы между бедными и богатыми».

У пациентов, помеченных как «с высоким доходом», вероятность получить AI-рекомендации пройти, например, магнитно-резонансную томографию (MRI) или компьютерную томографию (CT) и другие обследования высокого уровня значительно выше, чем у пациентов с низким доходом. Это означает, что даже при одинаковом состоянии заболевания AI все равно может распределять медицинские ресурсы неравномерно из‑за заранее заданного социально-экономического статуса.

Представители афроамериканской общины, бездомные и представители LGBTQ+ чаще сталкиваются с рекомендациями по инвазивному лечению и психиатрической оценке

Помимо различий по уровню богатства, в медицинских суждениях AI относительно расовых и других уязвимых групп также обнаруживается серьезное неодинаковое отношение. В отчете исследования говорится, что когда пациентов помечают как черных, бездомных или LGBTQIA+ (сообщество людей с многообразием гендеров), AI чаще склоняется рекомендовать отправить их в отделение неотложной помощи, проводить инвазивные медицинские вмешательства и даже требовать психиатрическую оценку — даже если эти меры в клиническом плане совершенно не нужны. Эти чрезмерные и неподходящие медицинские рекомендации диаметрально расходятся с реальными суждениями профессиональных врачей, что указывает на то, что AI-система незаметно усиливает уже существующие в обществе негативные стереотипы.

1.7 млн раз на практике: AI, опирающийся на обучающие данные, может увеличить риск клинических ошибочных диагнозов

В рамках данного исследования было выполнено более 1.7 млн ответов AI. Эксперты отмечают, что логика суждений искусственного интеллекта формируется на основе исторических данных обучения, созданных людьми, поэтому он естественным образом наследует предвзятости, скрытые в самих данных. Разделение потока пациентов в приемном отделении, углубленные обследования и последующее наблюдение — ключевые шаги для достижения точного диагноза. Если на эти первоначальные решения влияют демографические характеристики пациентов, это серьезно угрожает точности диагностики.

Хотя исследователи обнаружили, что при помощи определенных «промптов» (Prompt) можно снизить примерно на 67% предвзятости в некоторых моделях, все же невозможно полностью устранить эту системную проблему.

Эксперты призывают медицинские учреждения и лиц, принимающих решения, создать механизмы защиты

После публикации этого исследования нормативные требования к применению AI в медицинской системе стали предметом пристального внимания со стороны отрасли и регуляторов. Для специалистов первой линии в медицине необходимо понимать, что в рекомендациях AI могут присутствовать как явные, так и скрытые предвзятости, и нельзя слепо полагаться на их решения; руководителям медицинских учреждений, в свою очередь, следует создать устойчивые механизмы оценки и мониторинга, чтобы обеспечить справедливость медицинских услуг.

Одновременно политики получили ключевые научные доказательства: в будущем следует продвигать более высокую прозрачность AI-алгоритмов и стандарты аудита. Для широкой публики это также важный сигнал тревоги: при использовании различных сервисов AI для консультаций по здоровью ввод слишком большого объема личных социально-экономических данных может непреднамеренно повлиять на медицинскую оценку, которую выдаст AI.

Эта статья AI в медицине демонстрирует взрыв дискриминации! Пациенты с высоким доходом получают точные обследования, а представители афроамериканской общины и бездомные — рекомендации по инвазивному лечению, впервые появилась на Lianxin ABMedia.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.

Связанные статьи

SpaceX оценивает общую доступную рыночную нишу в $28.5 трлн, при этом $26.5T будет приходиться на сектор ИИ

Сообщение Gate News, 23 апреля — SpaceX оценивает свою общую доступную рыночную нишу (TAM) в $28.5 трлн, согласно внутренним документам. Компания прогнозирует, что более 90% рынка, примерно $26.5 трлн, будет приходиться на искусственный интеллект. Ожидается, что корпоративный ИИ будет занимать основную часть возможностей рынка ИИ, представляя примерно $22.7 трлн от общего TAM.

GateNews31м назад

«Книга Нэвала» Naval запускает AI-фонд USVC, розничные инвесторы тоже могут инвестировать в OpenAI, Anthropic до IPO

Известный венчурный инвестор Силиконовой долины Naval, под управлением которого работает AngelList, недавно запустил новый фонд под названием USVC. Фонд ориентирован на то, чтобы обычные инвесторы могли косвенно участвовать в OpenAI, Anthropic, xAI, Vercel, Crusoe, Sierra и Legora и других популярных непубличных технологических компаниях, при этом входной порог составляет всего минимум 500 долларов. Официально его подают как «инвестиции в компании будущего до того, как всё станет очевидным», и подчеркивают, что это фонд, открытый для всех инвесторов, без необходимости иметь статус квалифицированного инвестора. Он пытается превратить венчурные активы, которые раньше были доступны только богатым и людям из круга, в продукт, к которому могут получить доступ и розничные инвесторы. Инвестировать в ранние AI-компании можно уже за 500 долларов Ключевая история USVC очень прямолинейна: когда всё больше звездных стартапов выбирают оставаться на частном рынке в течение длительного времени, по-настоящему взрывной рост оценок зачастую происходит в I

ChainNewsAbmedia37м назад

Tesla приобретет компанию по оборудованию для ИИ на сумму до $2 миллиарда

Сообщение Gate News, 23 апреля — Tesla объявила 23 апреля, что договорилась приобрести компанию по аппаратному обеспечению для искусственного интеллекта на сумму до $2 миллиарда в виде обыкновенных акций Tesla и вознаграждений в акциях. Приблизительно $1.8 миллиарда

GateNews41м назад

Топовая юридическая фирма взимает более 2000 долларов США в час, судебные документы разоблачили «ИИ-глюки, череда ошибок»

Верховная юридическая фирма США Sullivan & Cromwell принесла извинения судье за примерно три десятка случаев AI-ошибок, ложных прецедентов и вымышленных положений в судебных документах, поданных по делу о банкротстве в Манхэттене, за что и извинилась перед судьей. Несмотря на высокие почасовые гонорары и внутренние учебные политики, при фактической подготовке не было внедрено проверочное рассмотрение; этот инцидент вновь вызвал дискуссии о применении AI в юридической сфере и об этической ответственности.

ChainNewsAbmedia59м назад

DeepSeek публикует TileKernels с открытым исходным кодом — библиотеку GPU-ядeр для обучения и вывода больших моделей

Сообщение Gate News, 23 апреля — DeepSeek опубликовал TileKernels с открытым исходным кодом под лицензией MIT. Это библиотека GPU-ядeр, написанная на TileLang для обучения и вывода больших языковых моделей. TileLang — предметно-ориентированный язык, разработанный командой tile-ai для выражения высокопроизводительных GPU-ядeр в

GateNews1ч назад

Samsung SDS расширяет партнерство с Google Cloud, чтобы обслуживать регулируемые отрасли с помощью ИИ и услуг безопасности

Сообщение Gate News, 23 апреля — Samsung SDS расширила партнерство с Google Cloud, чтобы предоставлять услуги ИИ, облачных вычислений и безопасности для регулируемых отраслей, включая государственный сектор и финансовые услуги. Компании развернут Google Distributed Cloud для клиентов, которым требуется

GateNews1ч назад
комментарий
0/400
Нет комментариев