Case and Commentary

Nov 2025
Peer-Reviewed

¿Cómo deberíamos pensar sobre las influencias de las tecnologías de escucha ambiental y transcripción en la documentación de historias clínicas electrónicas y las conversaciones entre pacientes y médicos?

Sara Gerke, Dipl-Jur Univ, MA and David A. Simon, PhD, JD, LLM
AMA J Ethics. 2025;27(11):E787-795. doi: 10.1001/amajethics.2025.787.

Read in:

Resumen

Este comentario sobre un caso analiza cómo la integración de tecnologías de escucha ambiental y transcripción impulsadas por inteligencia artificial en el proceso de documentación de registros médicos electrónicos influye en las prácticas de documentación y los encuentros clínicos. El comentario ofrece recomendaciones de mejores prácticas para los procesos de consentimiento informado y la formación de la relación médico-paciente.

Caso

XY es un paciente de University Health y se prepara para una próxima consulta de rutina con su nuevo médico, el Dr. M. XY revisó y completó los cuestionarios de salud y firmó los formularios de consentimiento antes de su consulta. XY no consintió el uso de una nueva tecnología de inteligencia artificial (IA) de escucha ambiental y transcripción, que los médicos de University Health utilizan para integrar más fácilmente la información de las entrevistas con pacientes en el expediente médico del paciente. El formulario de consentimiento para esta tecnología especifica que no otorgar el consentimiento no interferirá con la atención que se recibiría durante una “visita normal”. XY planea hacerle algunas preguntas al Dr. M sobre el uso de cannabis y hongos psicodélicos, porque XY se pregunta si esto está causando algunos síntomas nuevos, pero XY no se siente cómodo/a de que se graben evidencias de audio de su uso de sustancias, por lo que XY no da su consentimiento.

El día de la visita de XY con el Dr. M, XY se entera por el asistente médico (AM) que la tecnología de grabación y transcripción de IA ya está ampliamente en uso en University Health y que “la mayoría de los pacientes dan su consentimiento”. MA no está seguro de cómo responder cuando XY dice: “Pero el formulario de consentimiento decía que negarme a ser grabado no interferiría con recibir atención médica”. MA sigue sin estar seguro de cómo procederá la visita sin el consentimiento de XY para usar la tecnología y le pide al Dr. M que se lo explique. El Dr. M le explica a XY: “Ahora dependo de esta tecnología para hacer mi documentación y dictado. ¿Hay algo específico que le preocupe?”

XY se siente incómodo, duda, pero finalmente capitula y consiente a ser grabado. XY obtiene las órdenes necesarias para los exámenes de salud de rutina, pero cuando el Dr. M le pregunta si tiene más preguntas o inquietudes, XY responde: “No”.

Comentario

En la práctica, muchos médicos ahora utilizan tecnologías de escucha ambiental y transcripción impulsadas por IA (“herramientas de documentación clínica ambiental” o “herramientas”), similares a la herramienta en este caso. Por ejemplo, una gran organización de atención médica sin fines de lucro en Estados Unidos anunció recientemente que implementaría una herramienta clínica ambiental en 40 hospitales y más de 600 consultorios médicos.1 Herramientas como esta por lo general graban y transcriben el encuentro entre paciente y médico, y generan un resumen de la conversación en una nota clínica. En las versiones iniciales de estas herramientas, la grabación, la transcripción y las notas se enviaban habitualmente primero a una empresa de terceros para revisión humana. Pero las versiones más nuevas omiten este paso adicional2,3: una herramienta basada en IA “redacta de manera segura notas clínicas, registrando visitas de pacientes en el consultorio y de telesalud con el consentimiento del paciente... y produce un borrador de nota para revisión y finalización inmediata del médico.”2

Las herramientas de documentación clínica ambiental prometen aumentar la calidad y eficiencia de la documentación, reducir el agotamiento del clínico y mejorar la calidad de la atención.2 Debido a que estas herramientas registran y transcriben el encuentro médico-paciente y resumen la conversación en una nota para revisión del clínico, el clínico puede dedicar más tiempo a escuchar y tratar al paciente. Pero a pesar de todo lo que prometen, estas herramientas también plantean varios problemas éticos y legales, que van desde la privacidad y seguridad hasta la responsabilidad. Por ejemplo, los pacientes podrían sentirse incómodos con que su conversación sea grabada, o la herramienta de documentación clínica ambiental podría cometer errores.4 Por lo tanto, además de considerar los beneficios potenciales de estas herramientas, los hospitales, centros de atención médica y otras partes interesadas deberían considerar cuidadosamente sus riesgos antes de adoptarlas en la práctica clínica.

Inspirado en el caso del paciente XY y el Dr. M, este comentario utiliza el concepto de consentimiento informado para evaluar el posible impacto de dichas tecnologías en la relación médico-paciente. Después de discutir el consentimiento informado, nos enfocamos en las protecciones legales y los límites del consentimiento informado y las leyes relacionadas. A continuación, discutimos otros temas éticos planteados en este caso, como el desequilibrio de poder entre el Dr. M y el paciente XY. Concluimos con recomendaciones de mejores prácticas para hospitales y médicos que implementen estas herramientas de IA.

Consentimiento informado

Según el Código de Ética Médica (Code de Medical Ethics) de la American Medical Association, “el proceso de consentimiento informado ocurre cuando la comunicación entre un paciente y un médico resulta en la autorización o acuerdo del paciente para someterse a una intervención médica específica.”5 Un elemento fundamental de la práctica médica, el consentimiento informado se refiere a 2 prácticas distintas. Una es legal. Generalmente requiere que el médico revele los riesgos materiales de los tratamientos propuestos y las alternativas.La otra es ética, ya que el consentimiento informado se basa en el principio ético del respeto por la autonomía: los pacientes deben poder tomar decisiones sobre sus cuerpos basándose en la información completa disponible.

Los principios que subyacen a la doctrina legal del consentimiento informado se superponen pero no son coextensivos con los principios éticos que animan el proceso ético del consentimiento informado. Bajo ambos, por ejemplo, el paciente XY tiene un interés de autonomía y, por lo tanto, un derecho a la información sobre los riesgos relacionados con el tratamiento que podrían afectar su decisión de someterse a él. Pero los deberes éticos de los médicos de revelar los usos y riesgos de la herramienta de documentación clínica ambiental probablemente son más amplios que los deberes legales de los médicos de hacerlo, si es que existe alguno.

Límites de la doctrina legal del consentimiento informado

Aunque es un concepto centrado en el paciente, la doctrina legal del consentimiento informado no otorga al paciente el derecho a recibir cada fragmento de información concebible. Y las limitaciones de la doctrina, al igual que sus protecciones, pueden afectar la relación médico-paciente.

Por ejemplo, el médico a menudo tiene el deber legal de revelar únicamente aquellos riesgos que “una persona razonable, en lo que el médico sabe o debería saber que es la posición del paciente, probablemente consideraría significativos... al decidir si renunciar o no a la terapia propuesta.”6 Con pocas excepciones, los médicos no tienen el deber de revelar el uso de tecnologías de IA para ayudar a formular recomendaciones de tratamiento bajo la doctrina legal del consentimiento informado.7 Si esto es correcto, se deduce que también es poco probable que los médicos (como el Dr. M) tengan un deber general de revelar a los pacientes (como XY) el uso y, en última instancia, los riesgos de las herramientas de documentación clínica ambiental, que en sus versiones actuales no desempeñan ningún papel en la función de toma de decisiones del médico tratante. Además, la doctrina legal del consentimiento informado por lo general se aplica a un “procedimiento médico o quirúrgico” o “tratamiento”.8 Sin embargo, es poco probable que las herramientas de documentación clínica ambiental  constituyan alguna forma de procedimiento médico o quirúrgico o tratamiento que requiera divulgación. La razón es que actualmente es poco probable que las herramientas sean “dispositivos” bajo la ley federal, siempre y cuando solo transcriban y no interpreten o analicen los registros de pacientes.9,10 Aunque la regla final de Datos de Salud, Tecnología e Interoperabilidad (Health Data, Technology, and Interoperability, HTI-1) de la Oficina del Coordinador Nacional (Office of the National Coordinator, ONC) para Tecnología de la Información (TI) en Salud ha implementado recientemente requisitos de transparencia para ciertos algoritmos que se consideran “Intervenciones de apoyo a decisiones predictivas” y son parte de la TI de salud certificada por la ONC, estos requisitos se aplican a los desarrolladores de TI de salud y generalmente no se extienden a los médicos.11 Finalmente, como ejemplo de nuevos desarrollos a nivel estatal, California ha implementado requisitos de divulgación para proveedores que usan IA generativa para generar “comunicaciones con pacientes relacionadas con información clínica del paciente”, pero tales requisitos solo se aplican a comunicaciones clínicas dirigidas al paciente y tampoco se aplican en casos en los que un médico lee y revisa la comunicación redactada por IA.12 En resumen, la doctrina legal del consentimiento informado actualmente no parece requerir que médicos como el Dr. M divulguen a pacientes como XY los usos y riesgos de una herramienta de documentación clínica ambiental.

Sin embargo, la probable ausencia de tal deber bajo la doctrina legal del consentimiento informado podría afectar negativamente respecto a qué información los médicos divulgan voluntariamente a pacientes como XY. Por ejemplo, sin una obligación legal de revelar los riesgos de la herramienta (por ejemplo, el riesgo de transcripción errónea que podría usarse en diagnósticos futuros), los médicos podrían tener menos incentivos para conocerlos, lo que haría difíciles las discusiones adicionales con pacientes como XY sobre esos riesgos. Y si un médico no puede responder preguntas básicas sobre la herramienta, entonces el paciente podría deducir que el médico carece de competencia, socavando así la confianza y la relación médico-paciente. Por ejemplo, si los pacientes no confían en su médico, podrían ser menos propensos a compartir información—incluyendo su uso de cannabis y drogas psicodélicas, como en el caso de XY—o ser menos propensos a consentir al tratamiento.

Los pacientes como XY también podrían mostrarse reticentes a compartir información si saben que estas herramientas a veces “alucinan” y si creen que los médicos como el Dr. M no se toman el tiempo necesario para identificar información falsa o inventada en la nota generada por IA, particularmente si no pueden explicar cómo funcionan estas herramientas.13 Aunque el riesgo de información incorrecta también podría existir cuando los médicos redactan sus propias notas, los pacientes podrían creer (quizás con razón) que el médico tiene más control que cuando una herramienta de documentación clínica ambiental genera la nota por ellos. Esta preocupación puede estar particularmente bien fundamentada en casos en los que una herramienta no está suficientemente entrenada en diversos acentos y patrones de habla y el paciente tiene un fuerte acento no nativo del inglés, lo que puede llevar a inexactitudes en la nota generada por IA.14 Además, los algoritmos de IA podrían introducir nuevas formas de sesgo o distorsiones, no simplemente al transcribir sino al extraer inferencias y resumir conversaciones.1 Sin una interacción honesta e informada entre paciente y clínico, es menos probable que las decisiones de tratamiento promuevan el interés del paciente y podrían impactar negativamente los resultados del paciente.15

Los pacientes con menos conocimientos de salud o que se someten a la autoridad pueden dudar en cuestionar a un médico.

Dicho esto, los riesgos de las herramientas de documentación clínica ambiental no siempre superan sus beneficios. Utilizadas adecuadamente, tales herramientas podrían en realidad mejorar la atención al paciente, a pesar de los débiles incentivos proporcionados por la doctrina legal del consentimiento informado. Por ejemplo, pacientes como XY, a pesar de sus reservas sobre la tecnología, podrían finalmente consentir su uso y desarrollar una mejor relación, de mayor confianza, con su médico de la que habrían tenido si el médico hubiera estado escribiendo en un teclado o haciendo clic con un ratón. Si los médicos como el Dr. M experimentan menos agotamiento al usar la tecnología, pueden prestar mayor atención a sus pacientes. Ambos resultados podrían, a su vez, traducirse en una mejor atención. Por lo tanto, aunque existen algunos riesgos de que estas tecnologías puedan socavar la confianza y afectar negativamente la atención al paciente, no necesariamente lo harán en todos los casos. Y nada sobre la doctrina legal del consentimiento informado prohíbe las divulgaciones que podrían ayudar a realizar estos beneficios al informar a los pacientes sobre el uso y los riesgos asociados con las herramientas de documentación clínica ambiental.

Otras protecciones legales

Las brechas en la doctrina legal del consentimiento informado pueden cerrarse parcialmente mediante otras leyes, ayudando a aumentar la confianza en la relación médico-paciente. La Ley de Portabilidad y Responsabilidad del Seguro Médico (Health Insurance Portability and Accountability Act, HIPAA) y la correspondiente Regla de Privacidad (Privacy Rule), por ejemplo, protegen el uso y divulgación de “información de salud individualmente identificable” (llamada “información de salud protegida” o PHI: Protected Health Information) por parte de “entidades cubiertas”, como médicos, hospitales y pagadores, así como sus “socios comerciales” que tienen, por ejemplo, acuerdos con hospitales.16 En el caso hipotético, HIPAA protege la PHI de XY (por ejemplo, el diagnóstico de XY) porque el Dr. M es una entidad cubierta. Y la empresa que ofrece la herramienta probablemente sea un asociado comercial ya que proporciona servicios (por ejemplo, la grabación y transcripción) en nombre de la entidad cubierta.

Otras leyes federales y estatales también pueden ayudar a proteger la privacidad, dignidad y autonomía del paciente. Por ejemplo, las leyes federales y estatales de interceptación telefónica podrían requerir el consentimiento del paciente para la grabación.17 Por ejemplo, en US vs. Hollern, un quiropráctico fue condenado penalmente bajo la Ley Federal de Interceptación Telefónica (Federal Wiretap Act) porque no obtuvo el consentimiento adecuado del paciente: los pacientes firmaron formularios de consentimiento autorizando la grabación y el uso para fines médicos, pero el quiropráctico usó las grabaciones para entrenar a otros quiroprácticos sobre cómo “convencer al paciente de aceptar un curso de tratamiento prolongado, preferiblemente pagado por adelantado”.18 Las leyes civiles estatales pueden operar de maneras similares. En California, por ejemplo, las plataformas de terceros utilizadas para facilitar la comunicación con pacientes enfrentaron responsabilidad civil por “interceptar” datos sin el consentimiento del paciente.19 En el caso de XY, University Health podría enfrentar cargos penales o demandas civiles bajo las leyes estatales de interceptación telefónica o privacidad si no obtiene un consentimiento informado que cubra todas las actividades relevantes. Cada una de estas protecciones puede ayudar a fomentar una sensación de privacidad y confianza.

Limitaciones de otras protecciones legales

A pesar de la protección adicional que ofrecen estas leyes, también tienen limitaciones que pueden afectar la relación médico-paciente. Por ejemplo, aunque la HIPAA protege el uso y divulgación de la PHI, los pacientes podrían autorizar a una entidad cubierta a divulgar su PHI por escrito, como para mercadeo o venta,20,21 incluso si en realidad no saben lo que autorizan. Además, la HIPAA no se aplica a datos desidentificados cuando las entidades cubiertas eliminan “identificadores” específicos de la PHI, como nombre, dirección, números de teléfono y datos biométricos.22

Estas lagunas legales pueden afectar la privacidad del paciente. Por ejemplo, XY podría firmar un acuerdo que pretende proteger su privacidad bajo la HIPAA, pero University Health podría compartir datos debidamente desidentificados con un tercero, ya que HIPAA no se aplica en esta situación. Sin embargo, la capacidad de “reidentificar” datos de manera relativamente fácil utilizando otros conjuntos de datos socava las protecciones de privacidad de la HIPAA.23 En particular, las grabaciones de voz que se integran con otra información de historias clínicas electrónicas (Electronic Health Records, EHR) podrían necesitar ser “desidentificadas” utilizando una tecnología más sofisticada para alterar la voz del paciente.24 La otra opción sería destruir la grabación por completo y conservar únicamente una transcripción desidentificada de la conversación. Sin embargo, esta opción podría generar otros riesgos, como la incapacidad de los médicos (que dependen de la memoria) para identificar errores si la transcripción no fue (debidamente) validada antes de la destrucción de la grabación. Si los errores no se corrigen y se incluyen notas falsas en los registros de salud, y si los médicos no pueden corregir los errores, los pacientes podrían resultar perjudicados con el correr del tiempo.

Los pacientes como XY podrían preocuparse de que estas limitaciones reduzcan su privacidad, lo cual podría impactar negativamente su atención médica y relación con sus médicos. Por ejemplo, si XY piensa que University Health va a compartir sus datos, incluso si están debidamente desidentificados en cumplimiento con la HIPAA, podría reconsiderar compartir información sobre el uso de drogas con el Dr. M. De manera similar, un formulario de consentimiento amplio que proteja a University Health de responsabilidad bajo las leyes de interceptación de comunicaciones podría socavar la confianza de XY en la privacidad de su conversación con el Dr. M, haciendo que XY sea menos propenso a proporcionar información completa y precisa.

Encuadre, asimetría de poder y equidad

Aunque las consideraciones legales influyen en la relación médico-paciente, las consideraciones éticas en el consentimiento informado podrían tener un impacto más amplio en esta relación. Un paciente como XY podría elegir dar su consentimiento por miedo en lugar de por acuerdo. Por ejemplo, XY podría temer que el Dr. M lo etiquete como “difícil” o que sea más despectivo respecto de sus preocupaciones si no da su consentimiento, lo que podría socavar su confianza en el Dr. M.

La forma en que el equipo de atención enmarca el proceso de consentimiento puede exacerbar o mitigar esta preocupación. Por ejemplo, en el caso hipotético, MA le dice a XY que “la mayoría de los pacientes dan su consentimiento”. Cuando XY pregunta sobre una posible decisión de negarse a consentir con la tecnología, la respuesta del Dr. M está enmarcada con el consentimiento como opción predeterminada. En lugar de explicar los riesgos y pedir el consentimiento de XY para grabar y usar la conversación, el Dr. M explica el propósito del software y le pregunta a XY: “¿Hay algo específico que le preocupe?” Incluso si el Dr. M no tenía la intención de influir en la decisión de XY, este planteamiento coloca la carga en el paciente de cuestionar la autoridad del médico. También es desdeñoso y alimenta la asimetría de poder existente entre paciente y médico al sugerir que no hay nada de qué preocuparse. XY podría consentir simplemente para evitar que el Dr. M se forme una impresión desfavorable antes de que comience el tratamiento.

Las asimetrías de poder pueden impactar desproporcionalmente a pacientes con baja alfabetización en salud, diferencias culturales o antecedentes desfavorecidos. Los pacientes con baja alfabetización en salud o aquellos que provienen de una cultura que valora la deferencia hacia la autoridad podrían mostrarse reticentes a cuestionar a un médico,25,26 particularmente cuando una decisión se presenta como contraria a la preferencia o recomendación del médico.27 En el caso hipotético, por ejemplo, XY podría verse influido a dar su consentimiento por la descripción que hacen el Dr. M y MA del uso de la herramienta como algo común y típico—como exclusión voluntaria en lugar de inclusión voluntaria. Finalmente, los pacientes de entornos económicamente desfavorecidos podrían tener seguro público, recursos limitados, o seguro privado con redes de proveedores limitadas, lo que les dificulta localizar o consultar a otro médico que no utilice una herramienta de documentación clínica ambiental. XY podría no tener acceso a otros médicos además del Dr. M porque XY carece de transporte confiable o porque el Dr. M forma parte de una organización de gestión de salud. La forma en que los médicos como el Dr. M abordan la conversación para obtener el consentimiento puede tener una influencia particularmente grande en las decisiones de los pacientes en ciertos contextos.

Recomendaciones de mejores prácticas

Aunque obtener el consentimiento informado es importante para gestionar los riesgos, no aborda la gama completa de riesgos que enfrentan los pacientes, los médicos y los fabricantes de tecnología. Para combatir algunos de estos riesgos, los sistemas de salud y los médicos deberían considerar implementar y monitorear flujos de trabajo alternativos, idealmente para generar confianza y respetar la autonomía individual. Por ejemplo, los proveedores podrían implementar procesos de consentimiento que permitan a los pacientes ver un video corto sobre la herramienta de documentación clínica ambiental, incluyendo los beneficios y los posibles riesgos de privacidad y seguridad, así como la manera en que el hospital está abordando activamente esos riesgos. Los asistentes médicos como MA y los médicos como el Dr. M también deberían estar disponibles para responder cualquier pregunta que los pacientes como XY puedan tener después de ver el video. Por ejemplo, los médicos podrían explicar a los pacientes que revisan las notas y las verifican en busca de errores antes de finalizarlas e introducirlas en el expediente médico electrónico.

El uso de algunas de estas estrategias podría ayudar a aumentar la confianza, incluso cuando utilizar una herramienta de documentación clínica ambiental sea la opción predeterminada. Por ejemplo, un video corto que explique a los pacientes cómo se protegerían sus datos podría hacer que se sientan más seguros al compartir información personal con el médico. Los proveedores podrían asegurarse de ofrecer portales basados en Internet a través de los cuales los pacientes puedan ver fácilmente sus registros médicos,28 incluidas las notas generadas por IA que fueron verificadas y aprobadas por sus médicos. Los proveedores también podrían informar a los pacientes mediante un mensaje enviado a través del portal, en términos sencillos, qué derechos tienen para corregir sus registros y por qué es importante hacerlo. Al mismo tiempo, sin embargo, los sistemas de salud deben tener cuidado de no sobrecargar al paciente con la sensación de que la responsabilidad recae en ellos para detectar errores.

Otro factor clave para mantener la confianza es asegurar que las herramientas de documentación clínica ambiental realmente cumplan con su misión de reducir el agotamiento y aumentar la atención del médico. Si lo hacen, podrían permitir a los médicos comprender mejor, relacionarse y empatizar con los pacientes a nivel personal.29,30 Si no lo hacen, los médicos enfrentarán 3 problemas interrelacionados: disminución de la confianza del paciente, estancamiento o aumento del agotamiento y potencialmente peores resultados para los pacientes.2,3 Por ejemplo, los proveedores deberían implementar sistemas para medir los efectos de estas herramientas comparando las mediciones de referencia del tiempo que los médicos pasaron interactuando con los pacientes y completando el papeleo antes de la adopción de la herramienta de documentación clínica ambiental con el tiempo posterior a la implementación dedicado a las mismas actividades.

References

  1. Kaiser Permanente improves member experience with AI-enabled clinical technology. News release. Kaiser Permanente; August 14, 2024. Accessed June 13, 2025. https://about.kaiserpermanente.org/news/press-release-archive/kaiser-permanente-improves-member-experience-with-ai-enabled-clinical-technology

  2. Nuance Communications. Nuance announces general availability of DAX Copilot embedded in Epic, transforming healthcare experiences with automated clinical documentation. PR Newswire®. January 18, 2024. Accessed October 10, 2025. https://www.prnewswire.com/news-releases/nuance-announces-general-availability-of-dax-copilot-embedded-in-epic-transforming-healthcare-experiences-with-automated-clinical-documentation-302037590.html

  3. Trang B. As AI promises to revolutionize medical note-taking, concerns mount about accuracy and harm. STAT. March 28, 2023. Accessed June 13, 2025. https://www.statnews.com/2023/03/28/hospitals-ai-artificial-intelligence-health-microsoft-nuance-notes/

  4. Gerke S, Simon DA, Roman BR. Liability risks of ambient clinical workflows with artificial intelligence for clinicians, hospitals, and manufacturers. JCO Oncol Pract. 2025:OP2401060.

  5. American Medical Association. Opinion 2.1.1 Informed consent. Code of Medical Ethics. Accessed June 13, 2025. https://code-medical-ethics.ama-assn.org/ethics-opinions/informed-consent

  6. Canterbury v Spence, 464 F2d 772, 780 (DC Cir 1972).

  7. Cohen IG. Informed consent and medical artificial intelligence: what to tell the patient? Georgetown Law J. 2019;108(6):1425-1470.

  8. Norwood Hospital v Munoz, 564 NE2d 1017, 1021 (Mass 1991).

  9. Center for Devices and Radiological Health; Center for Biologics Evaluation and Research. Changes to existing medical software policies resulting from section 3060 of the 21st Century Cures Act: guidance for industry and Food and Drug Administration staff. US Food and Drug Administration; 2019. Accessed October 17, 2025. https://www.fda.gov/media/109622/download

  10. Uche-Anya EN, Gerke S, Berzin TM. Video endoscopy as big data: balancing privacy and progress in gastroenterology. Am J Gastroenterol. 2024;119(4):600-605.
  11. Office of the National Coordinator for Health Information Technology, US Department of Health and Human Services. Health data, technology, and interoperability: certification program updates, algorithm transparency, and information sharing; final rule. Fed Regist. 2024;89(6):1192-1438.

  12. Health Care Services: Artificial Intelligence, AB-3030 (Cal 2024).

  13. Associated Press. Hospitals’ AI transcription tool invents things no one ever said, researchers say. Medpage Today. October 28, 2024. Accessed June 15, 2025. https://www.medpagetoday.com/practicemanagement/informationtechnology/112610

  14. Hutiri WT, Ding AY. Bias in automated speaker recognition. In: Proceedings of the 2022 ACM Conference on Fairness, Accountability, and Transparency. Association for Computing Machinery; 2022:230-247.

  15. Birkhäuer J, Gaab J, Kossowsky J, et al. Trust in the health care professional and health outcome: a meta-analysis. PLoS One. 2017;12(2):e0170988.

  16. Administrative Data Standards and Related Requirements, Definitions. 21 CFR §160.103 (2025).

  17. de Meneses FGA, Mulcahy BP, Brook K. Wiretap laws and the perioperative physician—the current state of affairs. J Clin Anesth. 2023;89:111178.

  18. US v Hollern, 366 F Appx 609-610, 613-614 (6th Cir 2010).

  19. Yockey v Salesforce, 745 F Supp 3d 945 (ND Cal 2024).

  20. Uses and Disclosures of Protected Health Information: General Rules. 45 CFR §164.502(a) (2025).

  21. Uses and Disclosures for Which an Authorization Is Required. 45 CFR §164.508 (2025).

  22. Other Requirements Relating to Uses and Disclosures of Protected Health Information, Implementation Specifications: Requirements for De-Identification of Protected Health Information. 21 CFR §164.514(b)(2) (2025).

  23. Gerke S, Minssen T, Cohen G. Ethical and legal challenges of artificial intelligence-driven healthcare. In: Bohr A, Memarzadeh K, eds. Artificial Intelligence in Healthcare. Academic Press; 2020:295-336.

  24. Understanding identifiable data. Office of Research, Innovation, and Economic Development, Division of Research Integrity and Assurance, University of Tennessee Knoxville. Accessed December 20, 2024. https://research.utk.edu/research-integrity/human-research-protection-program/for-researchers/guidance-2/understanding-identifiable-data/

  25. Menendez ME, van Hoorn BT, Mackert M, Donovan EE, Chen NC, Ring D. Patients with limited health literacy ask fewer questions during office visits with hand surgeons. Clin Orthop Relat Res. 2017;475(5):1291-1297.
  26. Katz MG, Jacobson TA, Veledar E, Kripalani S. Patient literacy and question-asking behavior during the medical encounter: a mixed-methods analysis. J Gen Intern Med. 2007;22(6):782-786.
  27. Gong J, Zhang Y, Yang Z, Huang Y, Feng J, Zhang W. The framing effect in medical decision-making: a review of the literature. Psychol Health Med. 2013;18(6):645-653.
  28. Cohen IG, Gerke S, Kramer DB. Ethical and legal implications of remote monitoring of medical devices. Milbank Q. 2020;98(4):1257-1289.
  29. Safran DG, Karp M, Coltin K, et al. Measuring patients’ experiences with individual primary care physicians. Results of a statewide demonstration project. J Gen Intern Med. 2006;21(1):13-21.
  30. Wu Q, Jin Z, Wang P. The relationship between the physician-patient relationship, physician empathy, and patient trust. J Gen Intern Med. 2022;37(6):1388-1393.

Editor's Note

The case to which this commentary is a response was developed by the editorial staff. Background image by Paul Dolan.

Citation

AMA J Ethics. 2025;27(11):E787-795.

DOI

10.1001/amajethics.2025.787.

Acknowledgements

This work was funded by the European Union (Grant Agreement no. 101057321).

Conflict of Interest Disclosure

Contributors disclosed no conflicts of interest relevant to the content.

The people and events in this case are fictional. Resemblance to real events or to names of people, living or dead, is entirely coincidental. The viewpoints expressed in this article are those of the author(s) and do not necessarily reflect the views and policies of the AMA or European Union.