Instrumentele medicale bazate pe AI minimalizează simptomele la femei și la minoritățile etnice

O serie de studii recente au descoperit că adoptarea modelelor de inteligență artificială în sectorul medical ar putea duce la decizii medicale părtinitoare, în sensul că simptomele la femei și la minoritățile etnice tind să fie minimalizate de aceste instrumente, scrie Financial Times.
Concluziile cercetătorilor de la unele universități din SUA și Marea Britanie sugerează că instrumentele medicale bazate pe inteligență artificială și care sunt alimentate de LLM au tendința de a nu reflecta gravitatea simptomelor în rândul pacientelor de sex feminin, manifestând în același timp mai puțină „empatie” față de cele de culoare și asiatice.
Multe spitale și medici din întreaga lume utilizează modele lingvistice de mari dimensiuni, printre care Gemini și ChatGPT, precum și aplicații medicale de luat notițe bazate pe inteligența artificială pentru a genera automat, printre altele, transcrieri ale vizitelor pacienților.
Simptome minimalizate și recomandări reduse pentru femei și minorități etnice
În luna iunie au fost efectuate mai multe cercetări de către Clinica Jameel a MIT. În urma acestora, s-a constatat faptul că GPT-4 de la OpenAI, Llama 3 de la Meta și Palmyra-Med – un LLM axat pe îngrijirea sănătății – recomandau un nivel mult mai scăzut de îngrijire pentru pacientele de sex feminin și sugerau unor pacienți să se trateze singuri acasă, în loc să solicite ajutor.
Un alt studiu realizat de echipa MIT a arătat că GPT-4 și alte modele au generat răspunsuri care arătau mai puțină compasiune față de persoanele care aparțineau unor minorități etnice care căutau sprijin pentru probleme de sănătate mintală.
Un rezultat similar a reieșit și în urma unei cercetare realizată de London School of Economics. Studiul a descoperit că modelul Gemma al Google a minimizat problemele fizice și mentale ale femeilor în comparație cu cele ale bărbaților atunci când a fost utilizat pentru a genera și rezuma notele de caz.