Transcripción
Aplicar la IA en el sector sanitario
Semáforo ¿Luz verde para la IA en el sector sanitario?
Yo creo que sí.Creo que las cosas cuando se hacen certificadas y bajo un punto de vista clínico que lo avale la evidencia, no estamos tan lejos.
Pero también es verdad que no todo vale.Al final, si tomas una decisión clínica que está mal, estamos hablando de la vida de una persona y estamos hablando de que esa persona le puedes poner un riesgo.
Para eso existen las agencias del medicamento, que es, por ejemplo,con la que nosotros hemos pasado el marcado CE y otro tipo de agencias que tienen que velar por la calidad del producto.¿Qué riesgos dirías que tiene el autodiagnóstico mediante ChatGPT?
Bueno, es que a ver ChatGPT al final es una herramienta muy buena.
El tema es que, claro, no está certificada como producto sanitario.
Sí que es verdad que justo hace dos años, antes de que se hiciera tan viral en Boston, ya lo comentaban gente que estaban de Microsoft de que ¿para cuándo un ChatGPT con producto sanitario?
Pero no está hecho para diagnosticar y creo que todavía nos queda un poquito para eso.
Pero hay otras soluciones de IA que no están ya nada lejos.¿Qué sería necesario a nivel de datos generados por el paciente para que una inteligencia artificial sí que pueda ofrecer toda esta información tan valiosa y tan precisa que pueda ofrecer una empresa como la vuestra?
Yo creo que los datos tienen que ser de calidad.Al final la base de todo es que los datos vengan de fuentes fiables.
Si tú creas una IA en base a una fuente no fiable, o que tenga sesgos,o que no contemple la diversidad, que no contemple diferentes géneros,diferentes variables que son una realidad,estás creando una IA contaminada y te puede salir una IA muy peligrosa.
Por eso existe en el mundo sanitario la investigación y la certificación,sin que ello tampoco sea una obsesión Las startups médicas tienen que certificarse,pero no tienen que hípercertificarse.
Tienen que cumplir la certificación que necesitan y ya está.
