La capacidad de diagnóstico de ChatGPT sorprende a los expertos médicos de Harvard

«Estoy estupefacto, mejor que muchos médicos que he observado», afirma el Dr. Isaac Kohane, ingeniero informático y profesor de medicina de la Universidad de Harvard, en EEUU, en un libro llamado ‘The AI Revolution in Medicine’ (La Revolución de la IA en la Medicina). El libro cuenta las experiencias de Kohane probando la última versión de ChatGPT para uso médico y la mezcla de asombro y angustia que le produce esta tecnología.

Kohane escribió su libro, publicado en marzo para los suscriptores de pago de la plataforma especializada en libros de texto, Pearson+, junto con el periodista independiente Carey Goldberg y el vicepresidente de investigación de Microsoft, Peter Lee. Hay que recordar que Microsoft ha invertido miles de millones de dólares en OpenAI, creadora de ChatGPT, aunque los autores aseguran que ni Microsoft ni OpenAI han intervenido en las decisiones editoriales del libro.

Mejor que muchos médicos

El libro sostiene que GPT-4, la última versión del popular modelo de lenguaje, no solo es mejor que las anteriores —GPT-3 y GPT-3.5—, sino que también responde correctamente a más del 90 por ciento de las preguntas de los exámenes que EEUU realiza a los médicos para obtener sus licencias. Lo que para el profesor lo sitúa por encima de muchos médicos licenciados.

En uno de los múltiples ejemplos que se cuentan en el libro, del que se ha hecho eco Insider, Kohane, que es experto en pediatría, se ayuda de GPT-4 para resolver un caso real de un recién nacido al que había tratado varios años antes. El investigador proporcionó a la máquina algunos datos sobre el bebé, obtenidos a partir de un examen físico, así como datos de su ecografía y sus niveles hormonales. GPT-4 fue capaz de diagnosticar correctamente una enfermedad llamada hiperplasia suprarrenal congénita, que solo sufren una de cada 100.000 personas en el mundo. Kohane asegura en el libro que la inteligencia artificial fue capaz de realizar el diagnóstico «tal y como lo haría yo, con todos mis años de estudio y experiencia».

Sin embargo, el investigador no estaba del todo tranquilo con la asombrosa capacidad de esta inteligencia artificial. «Por un lado, estaba manteniendo una sofisticada conversación médica con un proceso computacional», escribe Kohane. «Por otro lado, igual de alucinante era la angustiosa constatación de que millones de familias pronto tendrían acceso a esta impresionante experiencia médica y no podía imaginar cómo podríamos garantizar o certificar que los consejos de GPT-4 fueran seguros o eficaces».

Aunque está lejos de sustituirlos

Cuando los autores del libro le preguntaron a GPT-4 si realmente puede realizar razonamientos causales, la IA probablemente respondería que su inteligencia sigue estando «limitada a patrones en los datos y no implica una verdadera comprensión o intencionalidad». A pesar de estas limitaciones GPT-4 es capaz de imitar el diagnóstico médico con un éxito asombroso, aunque sigue estando lejos de ser perfecto.

Como muestra Kohane en multitud de ejemplos en su libro GPT-4 no siempre es fiable. Sus meteduras de pata van desde simples errores administrativos hasta errores de cálculo de bulto como resolver incorrectamente un Sudoku o dejar de elevar al cuadrado un término en una ecuación. Los actuales problemas de GPT-4 con las matemáticas son conocidos de sobra, y, como dice Kohane, no es difícil imaginar cómo un número mal colocado o un peso mal calculado pueden conducir a graves errores de prescripción o diagnóstico.

También es conocida la tendencia de este modelo de lenguaje a las alucinaciones, que es como le llaman los ingenieros informáticos a cuando la IA inventa respuestas o desobedece peticiones, un error común a todas las versiones de GPT. Cuando los autores del libro le preguntaron sobre este problema, GPT-4 dijo: «No pretendo engañar a nadie, pero a veces cometo errores o hago suposiciones basándome en datos incompletos o inexactos. Tampoco tengo el juicio clínico ni la responsabilidad ética de un médico o enfermero humano».

Una gran herramienta en un hospital

Además de la capacidad para realizar diagnósticos y escarbar entre montañas de datos, los autores creen que esta inteligencia artificial puede ser muy útil en la comunicación con los pacientes. GPT-4, dicen, es un gran traductor y puede traducir la información de alta de un paciente que no habla el mismo idioma que el médico o simplificar la jerga técnica que utilizan los médicos de tal forma que hasta un niño de 10 años lo entendería.

Los autores aseguran en el libro que GPT-4 también puede ayudar a los médicos en el trato con los pacientes. Puede darles consejos sobre cómo comunicarles sus enfermedades en un tono empático y en un lenguaje claro y resumir y simplificar largos informes llenos de tecnicismos rápidamente.

Kohane y el resto de autores tienen claro que GPT-4 puede ser una gran herramienta para los sistemas de salud capaz de liberar tiempo y recursos preciosos en la clínica, permitiendo aumentar el tiempo que los médicos le dedican a los pacientes. Sin embargo, aseguran, «tenemos que obligarnos a imaginar un mundo con máquinas cada vez más inteligentes, que quizá lleguen a superar la inteligencia humana en casi todas las dimensiones. Y luego pensar muy bien cómo queremos que funcione ese mundo».

Fuente: elconfidencial.com (10/4/23) pixabay.com

Sobre Tarraco 4436 artículos
Asesoría de empresas Gestoría Tarragona