Editorial
Desafíos éticos y marcos regulatorios emergentes sobre inteligencia artificial en biomedicina
Ethical challenges and emerging regulatory frameworks on artificial intelligence in biomedicine
La inteligencia artificial (IA) ha dejado de ser una promesa futura para convertirse en una realidad que abarca todas las esferas de la vida cotidiana. Las herramientas que ofrece para las investigaciones biomédicas son una tentadora propuesta.(1,2)
Algoritmos capaces de analizar grandes volúmenes de datos clínicos en tiempos récord, modelos predictivos de precisión diagnóstica envidiable que anticipan la evolución de enfermedades, identificación de patrones en imágenes médicas, análisis de señales biomédicas, detección de patrones genómicos, sistemas que proponen tratamientos específicos y personalizados de afecciones con expresividades clínicas muy variables y cirugías asistidas de forma robótica, son ya parte del panorama científico que rodea a estas nuevas formas de pensamiento.(3) Incluso, en un reciente metaanálisis(4) que investigó los estudios que comparan medidas de empatía entre chatbots de IA y profesionales sanitarios, indica que en escenarios de solo texto, los chatbots de IA son frecuentemente percibidos como más empáticos que los humanos.
Sin embargo, este avance vertiginoso plantea una pregunta ineludible: ¿Se está preparado ética y socialmente para delegar funciones y decisiones tan sensibles en estas herramientas? Se evidencian retos como el sesgo algorítmico en poblaciones subrepresentadas,(5,6)la responsabilidad legal en errores de la IA,(7) o la explicabilidad (XAI) en modelos de caja negra.(8)
En los últimos años la Organización Mundial de la Salud (OMS), la Comisión Europea sobre IA y la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO), ha dirigido un número importante de investigaciones orientadas a garantizar que su empleo sea en el marco de una transformación digital segura y ética. Por esto, desde el año 2021 se han publicado documentos(3,9,10,11,12) que regulan el empleo de la IA en la esfera de la salud y sobre todo en las investigaciones biomédicas (tabla 1); así como regulaciones de organismos regionales que enmarcan acciones relacionadas con este tema (tabla 2).(13,14,15)
Estos documentos tienen puntos coincidentes y resaltan que lo importante es garantizar una supervisión constante desde las normas éticas, para así asegurar que la IA nunca sustituya el juicio médico, solo lo complemente en aras de lograr una mejor toma de decisiones y promover el bienestar más óptimo para los pacientes.(3)
La Revista Cubana de Medicina Militar es pionera en incluir en sus instrucciones a los autores,(16) la exigencia de que declaren el empleo ético de la IA en sus investigaciones. Este paso innovador fortalece la transparencia y la integridad científica, además de que promueve buenas prácticas editoriales frente al reto que plantea la incorporación cada vez mayor de estas tecnologías en las investigaciones biomédicas.
La ética relacionada con el empleo de la IA en las investigaciones biomédicas no se debe limitar solo a declarar su empleo, sino que debe abarcar un campo más amplio, al incluir la responsabilidad de los autores, la prevención de sesgos, la protección de los datos sensibles y la promoción de la equidad en el acceso a estas tecnologías. Solo así la IA puede integrarse de manera legítima y transparente en la producción científica.
REFERENCIAS BIBLIOGRÁFICAS
1. Feng L, Zhang Y, Wei W, Qiu H, Shi M. Applying deep learning to recognize the properties of vitreous opacity in ophthalmic ultrasound images [Internet]. Eye (Lond). 2023;38(2):380–5. DOI: 10.1038/s41433-023-02705-7
2. Mellado Raúl, Escobar E, De la Mora H, Díaz EJ, Rodríguez FL. Estudio de concordancia entre el sistema Watson for Oncology y la práctica clínica en pacientes con cáncer de mama dentro del Hospital Angeles Pedregal [Internet]. Acta méd. Grupo Ángeles. 2023;21(4):339-42. DOI: https://doi.org/10.35366/112643
3. Albisua J, Pacheco P. Límites éticos en el uso de la inteligencia artificial en medicina [Internet]. Open Respiratory Archives. Elsevier; 2025 [acceso: 25/12/2025]. Disponible en: https://www.elsevier.es/en-revista-open-respiratory-archives-11-articulo-limites-eticos-el-uso-inteligencia-S265966362400105X4
4. Howcroft A, Bennett-Weston A, Khan A, Griffiths J, Gay S, Howick J. AI chatbots versus human healthcare professionals: a systematic review and meta-analysis of empathy in patient care [Internet]. British Medical Bulletin. 2025;156(1): 1-13. DOI: 10.1093/bmb/ldaf017
5. Marwala T. The Dual Faces of Algorithmic Bias — Avoidable and Unavoidable Discrimination [Internet]. United Nations University, UNU Centre; 2024. [acceso: 29/12/2025]. Disponible en: https://unu.edu/article/dual-faces-algorithmic-bias-avoidable-and-unavoidable-discrimination
6. Seyyed-Kalantari L, Zhang H, McDermott MBA, Chen IY, Ghassemi M. Underdiagnosis bias of artificial intelligence algorithms applied to chest radiographs in under-served patient populations [Internet]. Nat Med. 2021; 27: 2176–82. DOI: https://doi.org/10.1038/s41591-021-01595-0
7. Campos Rivera G. Responsabilidad civil derivada del uso de sistemas de IA. Situación actual y retos para un futuro reglamento europeo [Internet]. Revista Jurídica Universidad Autónoma de Madrid. 2023;(46):173-215. DOI: https://doi.org/10.15366/rjuam2021.46.007
8. Hassija V, Chamola V, Mahapatra A, Singal A, Goel D, Huang K, et al. Interpreting Black-Box Models: A Review on Explainable Artificial Intelligence [Internet]. Cogn Comput. 2024;16:45–74. DOI: https://doi.org/10.1007/s12559-023-10179-8
9. World Health Organization. Ethics and governance of artificial intelligence for health [Internet]. Geneva: WHO; 2021 [acceso: 25/12/2025]. Disponible en: https://www.who.int/publications/i/item/9789240029200
10. European Commission. Research and Artificial Intelligence [Internet]. Brussels: European Research Executive Agency; 2025 [acceso: 25/12/2025]. Disponible en: https://rea.ec.europa.eu/research-and-artificial-intelligence_en
11. European Commission. Consultation on High-Risk AI Systems under the AI Act [Internet]. Brussels: European Commission; 2025 [acceso: 25/12/2025]. Disponible en: https://www.gtlaw.com/en/insights/2025/6/eu-commission-consultation-on-high-risk-ai-systems-key-points-for-life-sciences-and-health-care
12. European Commission. Research Ethics and Integrity [Internet]. Brussels: European Commission; 2025. [acceso: 25/12/2025]. Disponible en: https://research-and-innovation.ec.europa.eu/strategy/support-policy-making/scientific-support-eu-policies/research-ethics-and-integrity_en
13. Food and Drug Administration. Artificial Intelligence in Software as a Medical Device [Internet]. FDA; 2025. [acceso: 29/12/2025]. Disponible en: https://www.fda.gov/medical-devices/software-medical-device-samd/artificial-intelligence-software-medical-device
14. European Medicine Agency. Artificial intelligence [Internet]. EMA; 2025. [acceso: 29/12/2025]. Disponible en: https://www.ema.europa.eu/en/about-us/how-we-work/data-regulation-big-data-other-sources/artificial-intelligence
15. International Standart Organization. ISO/IEC 42005:2025 Information technology-Artificial intelligence (AI)-AI system impact assessment [Internet]. ISO; 2025. [acceso: 29/12/2025]. Disponible en: https://www.iso.org/es/norma/42005
16. Quevedo Fonseca CR, Corral Martín A, Vázquez Velázquez E, del Risco Valiente GI, Lozano Hidalgo Y. Nuevas instrucciones para los autores de la Revista Cubana de Medicina Militar [Internet]. Rev cuba med mil. 2024 [acceso: 26/12/2025];53(1):e34952. Disponible en: https://revmedmilitar.sld.cu/index.php/mil/article/view/34952
Jenrry Alvarez Cruz1* https://orcid.org/0000-0003-4482-0126
Carlos Rafael Quevedo Fonseca2 https://orcid.org/0000-0003-0974-5052
1Universidad de Ciencias Médicas de las FAR. Hospital Militar Central “Dr. Luis Díaz Soto”. La Habana, Cuba.
2Universidad de Ciencias Médicas de las FAR. La Habana, Cuba.
*Autor para la correspondencia. Correo electrónico: jenrryac@infomed.sld.cu