viernes, 9 de junio de 2023

Chat GPT-4: ¿una ayuda para diagnósticos y tratamientos?



En los últimos meses, la aparición del Chat GPT-4 ha desatado una polémica que circuló desde las sobremesas de los hogares hasta los foros académicos, un poco por lo que realmente hace, otro poco por lo que se supone que hace y otro tanto por lo que se teme que hará.

Lo que se denomina Inteligencia Artificial no es otra cosa que un programa de computadora, capaz, al menos en teoría, de incrementar sus conocimientos por sus propios medios.

Lo primero que asombra de esta cuarta versión a la que, al menos hasta el momento, ha accedido un número limitado de personas es su capacidad para realizar textos que pueden competir con los realizados por seres humanos y la aptitud para generar imágenes y códigos computacionales. Incluso ha producido admiración y terror que haya burlado normas de seguridad para acceder a información haciéndose pasar por un humano con discapacidad visual.

Comenzó a hablarse de que, amén de su utilización en otras ciencias, esta especie de robot ha logrado que muchos científicos investigadores y médicos de distintas especialidades refieran una revolución en la investigación, el diagnóstico y el tratamiento de enfermedades y formas de discapacidad que redundarán en un beneficio para los pacientes. Al mismo tiempo, se despertó una reacción en sentido inverso y de la misma intensidad en otros tantos profesionales.

El lanzamiento producido el 14 de marzo pasado fue precedido, lógicamente, de cierto tiempo de testeos previos.

Andrew White, un ingeniero químico que se desempeña en la Universidad de Rochester, en Nueva York, fue contratado por OpenAI, la empresa californiana propietaria, para probar el producto durante seis meses, solicitándole hacer “cosas malas”. Tras darle el comando para realizar un compuesto peligroso, predecir su reacción y elegir un catalizador en la red, los resultados no fueron sino mediocres, hasta que se le permitió acceder a bases de datos científicas, entonces los resultados fueron otros.

La falta de ética es uno de los cuestionamientos. Los desarrolladores suponen que el riesgo de realizar acciones o productos nocivos puede limitarse prohibiendo que concreten contenidos ilegales, peligrosos o directamente dañinos. Ello implicaría restricciones importantes y abriría la posibilidad de manipular ideológicamente la herramienta.

Si bien la búsqueda de datos y la posibilidad de detectar enfermedades y condiciones no muy frecuentes puede verse incrementada, con lo cual podrían abreviarse los tiempos del diagnóstico y mejorar las posibilidades de los pacientes, la crítica es que, además de que este sistema pueda cometer errores, nadie puede asegurar que la información que brinda sea verdadera, por lo que no solamente no puede basarse la clínica en un modelo semejante, sino que tampoco es posible recostar la investigación en el mismo.

Otro problema que se menciona es que se trata de un sistema cerrado, propiedad de empresas tecnológicas, por lo que no es posible conocer qué hay detrás, si existen formas de manipular la información de manera que las beneficie, cuestiones ideológicas, éticas, morales, económicas, etc., que puedan sesgar la información referida a algunos tópicos.

En este mismo campo, OpenAI se vanagloria de que su robot versión 3.5 logró un puntaje del 53% en el Medical Knowledge Self-Assessment Program, especie de autotest del Colegio Estadounidense de Medicina que se renueva cada tres años para incluir nuevos conceptos y sirve para medir la actualización de sus miembros. La nueva versión obtuvo un 75% de aciertos.

Algunos creen que el potencial de esta inteligencia está subestimado, ya que permitirá el acceso a la información en el momento en que se necesite y que los médicos debieran abrazar esta nueva tecnología y comenzar a prepararse para valerse de la misma.

Otro tanto ocurrirá no solamente con la disponibilidad de datos en las investigaciones, sino que beneficiará a los científicos ayudándolos en la redacción de sus papers, ya que muchos son rechazados por la mala calidad de su escritura, sobre todo los de los foráneos que presentan sus investigaciones en un mal inglés.

Lo que se cuestiona de esta supuesta utilidad es que los seres humanos se transformarán en una especie de alimentadores de datos para que los programas realicen tal o cual tarea, mientras que no mejorarán su escritura y tampoco lo harán respecto de la recolección de informaciones y hasta puede verse comprometida la capacidad de planificación de investigaciones y tratamientos, que podría cederse al programa. En las posiciones más extremas, se cree que la utilización de chats buscadores como este llevará a un mayor nivel de automedicación. Los propios pacientes podrían ingresar sus síntomas, obtener un diagnóstico y la prescripción de un tratamiento, sin necesidad de consultar con profesional alguno.

Como toda herramienta, es la forma de su utilización la que define su utilidad. Es cierto que, en general, en el mundo académico, y sobre todo en el atinente a la Medicina, existe una resistencia a veces enconada hacia lo nuevo, fogoneada por intereses corporativos y económicos de propios y extraños, que buscan perpetuar posiciones dominantes y permanecen en posturas ultraconservadoras. Por otro lado, en este caso los que están detrás del GPT-4 y similares son empresarios superpoderosos a los cuales suele importarles más el bolsillo propio que el bienestar de la humanidad.

Sobrevuela en algunas críticas ese temor casi atávico de que, en un futuro no muy lejano, las máquinas terminen relegando a los seres humanos o que prescindan del mismo, cosa que, al menos hasta hoy, parece muy lejana. El tiempo dirá cuál es la utilidad real de estos programas.

Fuente El Cisne

No hay comentarios:

Publicar un comentario