광고환영

광고문의환영

Cuando la consulta empieza con un algoritmo: qué revela Corea del Sur sobre la desinformación médica y la confianza en los doctores

Cuando la consulta empieza con un algoritmo: qué revela Corea del Sur sobre la desinformación médica y la confianza en l

Una señal de alerta que va más allá de Corea del Sur

En Corea del Sur, uno de los países más digitalizados del mundo, una encuesta encendió una discusión que ya no puede considerarse futurista. Según datos difundidos el 15 de abril por la Fundación de Prensa de Corea, el 58,3% de los adultos de entre 20 y 60 años considera que la inteligencia artificial generativa puede sustituir la búsqueda de información, la consulta o incluso parte de la atención que hoy ofrecen médicos y practicantes de medicina tradicional coreana. Dentro de ese grupo, un 53,9% cree que el reemplazo sería posible “en alguna medida” y un 4,4% piensa que podría darse en un nivel “considerable”.

La cifra, por sí sola, es potente. Pero el dato más inquietante quizá no sea el entusiasmo tecnológico, sino el contexto de desconfianza informativa en el que aparece. En la misma encuesta, el 85,8% dijo haber sentido alguna vez que la información de salud que consultó era inexacta o exagerada. Y el 76,8% afirmó haber experimentado confusión por contenidos contradictorios. En otras palabras: no se trata solamente de que la gente crea más en la IA, sino también de que sabe cada vez menos en qué confiar.

Visto desde América Latina o España, el fenómeno resulta familiar. Basta pensar en las cadenas de WhatsApp sobre supuestas curas milagrosas, los videos de TikTok que prometen “desinflamar el cuerpo” con recetas caseras, o los foros donde un dolor persistente termina convertido, en cuestión de minutos, en un diagnóstico alarmante. La diferencia es que ahora ese ecosistema desordenado no se limita a buscadores, influencers o publicaciones virales. Ha encontrado una nueva puerta de entrada: una interfaz conversacional que responde con seguridad, rapidez y un tono que muchas veces suena más empático que el de cualquier pantalla de atención de un hospital.

Ese es el punto central de la discusión surcoreana: qué ocurre con la relación entre paciente, médico e información cuando un algoritmo pasa de ser un asistente de consulta a convertirse, en la percepción pública, en una alternativa al consultorio. Y qué sucede con la confianza social en la medicina cuando la promesa de respuestas inmediatas se impone sobre los tiempos, las dudas y la responsabilidad que forman parte del acto clínico.

Más que hablar de una “sustitución” automática del médico, la encuesta abre una pregunta más profunda sobre el deterioro del entorno informativo. Corea del Sur sirve aquí como espejo adelantado de una tendencia global: si las personas sienten que el sistema informativo las abruma, las contradice o las deja solas, buscarán una salida que les ordene el caos, aunque esa salida no siempre sea segura.

Por qué tanta gente consulta primero a la IA y no al médico

La expansión de la inteligencia artificial en temas de salud no se entiende solo por fascinación tecnológica. Se entiende, sobre todo, por conveniencia. Un chatbot está disponible las 24 horas, no exige turno, no hace sentir vergüenza al usuario por preguntar varias veces lo mismo y permite describir síntomas con palabras cotidianas. Para quien no sabe si debe ir a urgencias, pedir hora con un especialista o simplemente esperar, esa inmediatez tiene un atractivo enorme.

En Corea del Sur, como en otros países, ese uso previo a la consulta parece haberse vuelto una práctica cotidiana. Ya no se trata únicamente de escribir síntomas en un buscador. Ahora se puede preguntar: “¿Esto es grave?”, “¿A qué especialista debo acudir?”, “¿Necesito exámenes?”, “¿Cómo interpreto este resultado?”. La IA reorganiza la respuesta, la resume, la adapta al tono del usuario y da la impresión de acompañarlo en tiempo real. Esa sensación de interlocución explica buena parte de su popularidad.

Para lectores hispanohablantes, el mecanismo no resulta ajeno. En muchas ciudades latinoamericanas, conseguir una cita médica puede tomar días o semanas; en España, aunque el sistema público ofrece cobertura amplia, no son raras las demoras para determinadas especialidades. En ambos contextos, la persona con dolor, ansiedad o una duda urgente recurre primero a lo que tiene a mano: el teléfono móvil. La tecnología ocupa así un espacio que antes llenaban la llamada a un familiar, la vecina con “remedios seguros” o la búsqueda caótica en internet.

También hay un factor emocional. En salud, la gente no solo busca datos: busca contención. El lenguaje médico puede ser difícil, el consultorio puede imponer distancia, y muchas veces el tiempo de atención es demasiado corto para explicar bien un diagnóstico. Frente a eso, la IA parece paciente, ordenada y disponible. No interrumpe. No mira el reloj. No transmite apuro. En una época en la que muchas personas sienten que el sistema sanitario las trata como un número más, esa diferencia pesa.

Sin embargo, esa utilidad inicial puede expandirse hasta invadir un terreno delicado. El problema empieza cuando la herramienta pensada para orientar se convierte, en la práctica, en filtro, traductor y juez de la necesidad de consultar. Es decir, cuando el paso preliminar se vuelve más largo y más influyente que la visita al médico. Entonces la IA ya no solo acompaña la decisión sanitaria: comienza a moldearla.

Lo que realmente dicen —y no dicen— los números

El 58,3% de personas que ve posible un reemplazo parcial o amplio del médico por la IA no equivale, necesariamente, a una renuncia masiva a la atención presencial. Ese matiz es importante. Una cosa es responder que una tecnología “puede sustituir” ciertas funciones, y otra muy distinta actuar de ese modo cuando aparece un síntoma grave, una cirugía pendiente o una urgencia real. En temas de salud, la percepción pública y la conducta concreta no siempre coinciden.

Pero tampoco conviene minimizar la magnitud simbólica del dato. Que más de la mitad de los encuestados imagine a la IA ocupando tareas asociadas al médico muestra que el centro de gravedad de la información sanitaria se está desplazando. Durante años, la ruta habitual fue del consultorio al buscador; ahora, en muchos casos, el recorrido comienza con una conversación algorítmica que interpreta síntomas, sugiere escenarios y condiciona las expectativas con las que el paciente llega a la consulta.

Eso modifica la relación médico-paciente desde antes del primer saludo. El profesional ya no recibe solamente a una persona con molestias, sino a alguien que quizá llega con un diagnóstico presunto, una lista de posibilidades, una preferencia terapéutica y una creciente sospecha de que el médico “solo confirma” lo que la tecnología ya adelantó. En algunos casos, eso puede facilitar la comunicación. En otros, la vuelve más tensa, porque instala una disputa implícita sobre quién interpreta mejor el cuerpo.

La propia investigación surcoreana advierte, según el resumen disponible, que la expansión de la IA generativa en salud cambia de raíz la manera en que las personas consumen información médica. Aumenta la accesibilidad y la comodidad, sí, pero al mismo tiempo expone riesgos relacionados con la precisión, la confiabilidad, la protección de datos sensibles y la posibilidad de que una herramienta de apoyo sea percibida como sustituto de la atención profesional. Esa observación es clave, porque evita dos extremos igualmente improductivos: el entusiasmo ingenuo y el rechazo automático.

Mi interpretación, claramente separada de los datos, es que la cifra del 58,3% no debe leerse como un triunfo de la IA sobre la medicina, sino como un síntoma de fatiga social frente a sistemas informativos y sanitarios que muchas personas sienten lejanos, fragmentados o difíciles de entender. Cuando la confianza institucional baja, cualquier herramienta que simplifique la experiencia gana terreno, incluso si su margen de error no siempre es visible para quien la usa.

El otro dato decisivo: no falta información, falta confianza

Los porcentajes de 85,8% y 76,8% son, probablemente, los más reveladores de toda la encuesta. El primero indica que una abrumadora mayoría ha percibido información de salud inexacta o exagerada. El segundo muestra que más de tres cuartas partes se han sentido confundidas por contenidos contradictorios. Esa combinación retrata una paradoja muy contemporánea: nunca hubo tanto acceso a información médica, y al mismo tiempo nunca fue tan fácil perderse dentro de ella.

En salud, esa confusión es especialmente peligrosa porque el error no se queda en el plano de las ideas. Un consejo mal entendido puede retrasar una consulta urgente, fomentar la automedicación o banalizar un síntoma serio. A diferencia de otras áreas de consumo informativo, aquí una respuesta errónea no solo desinforma: puede dañar.

En el mundo hispanohablante, esta realidad se reconoce con facilidad. Durante la pandemia, la circulación de desinformación sobre vacunas, tratamientos improvisados y supuestos métodos preventivos mostró hasta qué punto la sobreabundancia de mensajes puede erosionar la salud pública. Después de aquella experiencia, el problema no desapareció; simplemente cambió de formato. Las dudas sobre fertilidad, salud mental, alimentación, hormonas, cáncer o medicamentos encuentran hoy un circuito vertiginoso en redes sociales, videos cortos, podcasts pseudocientíficos y comunidades digitales donde la experiencia personal se presenta como prueba concluyente.

La IA entra en ese escenario con una ventaja decisiva: ordena el ruido. Resume, clasifica, explica y da forma coherente a datos dispersos. El usuario siente que por fin alguien le “traduce” un mundo técnico. Pero ahí aparece la trampa más delicada. Una respuesta bien escrita no es sinónimo de una respuesta verificada. Un texto fluido, convincente y personalizado puede generar una ilusión de certeza superior a la que produciría una búsqueda caótica en internet, aunque el contenido arrastre errores, omisiones o generalizaciones inapropiadas.

El riesgo, por tanto, no es solo la falsedad evidente, como ocurre con una estafa milagrosa o una teoría conspirativa extravagante. El riesgo mayor es la plausibilidad. Que la información equivocada llegue envuelta en una forma tan razonable que el usuario no detecte sus límites. En medicina, donde cada caso depende de edad, antecedentes, medicamentos, embarazo, enfermedades previas, contexto social y evolución del cuadro, esa apariencia de precisión puede ser profundamente engañosa.

La consulta médica no es solo una respuesta: es contexto, juicio y responsabilidad

Una de las ideas más importantes del debate surcoreano es que la medicina no puede reducirse a un intercambio de preguntas y respuestas. En la atención clínica intervienen elementos que no caben por completo en el texto: la observación del cuerpo, el tono de voz, la respiración, la palidez, la postura, la rapidez con que progresa un síntoma, la interacción entre enfermedades previas y tratamientos actuales, incluso la percepción del miedo o la confusión del paciente. Todo eso influye en la decisión.

Un dolor abdominal, por ejemplo, puede parecer trivial en una conversación digital y ser, en la práctica, señal de un cuadro agudo. Una tos persistente puede apuntar a un resfriado común o a un problema mucho más serio, según el tiempo de evolución, la edad de la persona, sus enfermedades de base y otros signos acompañantes. La IA puede ofrecer escenarios generales, pero carece de exploración física, de prueba diagnóstica propia y, sobre todo, de responsabilidad clínica directa sobre el desenlace.

Ese punto merece subrayarse con claridad. En salud, no basta con emitir una respuesta verosímil. Hace falta responder por las consecuencias de una decisión. Un médico, al indicar estudios, proponer tratamiento o advertir sobre signos de alarma, actúa dentro de un marco profesional, ético y legal. La inteligencia artificial, en cambio, no asume ese vínculo de responsabilidad del mismo modo. Puede orientar, sintetizar o ayudar a formular preguntas, pero no sustituye la estructura de juicio y rendición de cuentas que define a la práctica médica.

Conviene agregar una precisión cultural. En el resumen del artículo coreano aparece la referencia a médicos y “hanuisa”, término que alude a profesionales de la medicina tradicional coreana. Corea del Sur convive con ambos sistemas dentro de su ecosistema sanitario, algo que para un lector latinoamericano o español podría recordar, con diferencias importantes, la coexistencia entre medicina científica, prácticas complementarias y saberes tradicionales en distintos países. Esa convivencia hace aún más compleja la circulación de información, porque el paciente puede moverse entre varias fuentes de legitimidad al mismo tiempo.

Por eso, la pregunta no es si la tecnología tiene un lugar en la atención sanitaria. Lo tiene, y cada vez más. La pregunta es dónde termina la ayuda informativa y dónde empieza un reemplazo riesgoso del criterio clínico. Si esa frontera se vuelve borrosa, el costo no será solo técnico. Será también humano: consultas demoradas, tratamientos mal orientados y una erosión progresiva de la confianza en la relación entre pacientes y profesionales.

Qué le pasa a la relación médico-paciente cuando un algoritmo entra en la conversación

La relación médico-paciente siempre ha estado atravesada por asimetrías. El profesional domina un lenguaje técnico, interpreta exámenes, define opciones terapéuticas y administra tiempos escasos; el paciente llega con miedo, dolor o incertidumbre. La irrupción de la IA altera ese equilibrio, pero no necesariamente lo elimina. Más bien lo redistribuye. Ahora el paciente puede presentarse con más información, con conceptos aprendidos de antemano y con una confianza renovada para cuestionar o pedir explicaciones.

Eso tiene un costado positivo. Un paciente mejor informado puede participar con mayor conciencia en decisiones sobre su salud. Puede preguntar más, detectar inconsistencias, comprender mejor un tratamiento y adherirse de forma más activa a las indicaciones. Durante años, muchos sistemas sanitarios reclamaron justamente eso: usuarios más involucrados y menos pasivos frente a la autoridad médica.

El problema aparece cuando la información previa no fortalece el diálogo, sino que lo contamina. Si el paciente llega convencido de un diagnóstico sugerido por una herramienta digital, la consulta puede convertirse en un pulso de validación. El médico explica matices; el paciente oye una contradicción. El profesional pide estudios antes de concluir; el paciente siente que el algoritmo ya había sido más claro. Así, la medicina pierde parte de su autoridad no porque haya sido refutada con evidencia superior, sino porque compite con respuestas instantáneas y narrativamente seductoras.

En América Latina, donde la confianza en instituciones suele ser frágil y las experiencias con sistemas de salud desiguales alimentan recelos cotidianos, este desplazamiento puede ser aún más intenso. Si una persona siente que el hospital la atiende tarde, que la obra social o el seguro niegan cobertura, o que el lenguaje del médico la excluye, tenderá a otorgar valor a cualquier herramienta que le devuelva sensación de control. En España, aunque el debate se da en un marco distinto, también existe una preocupación creciente por la saturación asistencial y el tiempo limitado de consulta. En ambos lados del Atlántico, la pregunta de fondo es la misma: cómo reconstruir confianza en un ecosistema donde la velocidad digital desafía la deliberación clínica.

Mi opinión es que el problema no se resuelve descalificando a los usuarios que consultan a la IA. Esa conducta no surge de la ignorancia individual, sino de una transformación estructural de la experiencia informativa. La respuesta pasa por mejorar la comunicación sanitaria, hacer más legible el conocimiento médico y enseñar, desde escuelas hasta medios de comunicación, cómo distinguir entre orientación útil y falsa sensación de diagnóstico.

La lección para el mundo hispano: alfabetización sanitaria antes que pánico tecnológico

La experiencia surcoreana deja una advertencia clara para las sociedades hispanohablantes. El debate no debería reducirse a si la IA “es buena” o “es mala” para la salud. La cuestión central es bajo qué condiciones se usa, qué expectativas produce y qué vacíos institucionales está llenando. Si el problema de base es la pérdida de confianza en la información y en la comunicación médica, ninguna prohibición simplista resolverá el fondo del asunto.

Hace falta, en primer lugar, alfabetización sanitaria. No solo enseñar a buscar fuentes confiables, sino también a entender que la medicina trabaja con probabilidades, contexto y evaluación profesional. Mucha gente busca certezas tajantes donde lo responsable, en realidad, es hablar de indicios, riesgos y necesidad de observación. La IA suele dar respuestas nítidas; la medicina real, en cambio, muchas veces exige prudencia. Aprender a convivir con esa diferencia será parte de la educación digital de los próximos años.

En segundo lugar, se necesitan mejores mediaciones. Los hospitales, ministerios de salud, colegios médicos y medios de comunicación tienen que producir contenidos claros, verificables y comprensibles, capaces de competir con la lógica de lo instantáneo. No basta con tener la razón científica; hace falta saber comunicarla. Si la información confiable sigue siendo lenta, enredada o inaccesible, seguirá perdiendo terreno frente a formatos más amables, aunque sean menos seguros.

En tercer lugar, la propia práctica médica tendrá que adaptarse. No para competir con la IA como si fuera una batalla de popularidad, sino para reconocer que el paciente digital ya existe. Ignorar que muchas personas llegan a consulta después de conversar con un chatbot sería tan improductivo como negar, hace años, que llegaban tras leer en Google o ver un video en YouTube. El desafío profesional no está en despreciar esa realidad, sino en integrarla críticamente: preguntar qué leyó el paciente, qué entendió, qué lo angustió y dónde puede haber confusión.

Corea del Sur, con su alto nivel de conectividad y adopción tecnológica, suele anticipar cambios que después se extienden a otras sociedades. En ese sentido, la discusión abierta por esta encuesta no es una rareza asiática, sino un anticipo incómodo de un problema global. Cuando una mayoría significativa imagina que la IA puede reemplazar parte de la consulta médica, y al mismo tiempo una mayoría aún mayor admite haberse perdido entre información exagerada o contradictoria, el mensaje es claro: la crisis no es solo tecnológica. Es una crisis de confianza.

Y en salud, la confianza no es un lujo ni un detalle secundario. Es el puente que permite que una persona consulte a tiempo, comprenda un diagnóstico, siga un tratamiento y se sienta acompañada cuando más vulnerable está. Si ese puente se rompe, ningún algoritmo, por brillante que parezca, podrá reemplazar del todo lo que sucede cuando un profesional escucha, evalúa, decide y asume la responsabilidad de cuidar.

Source: Original Korean article - Trendy News Korea

Publicar un comentario

0 Comentarios