Entrevista a María Sánchez Besga

En este nuevo episodio de “Yo no soy abogado, pero…” encendemos los focos con uno de los temas más candentes del momento: la salud digital y el impacto de la inteligencia artificial en el sector sanitario y jurídico.
OpenAI acaba de anunciar ChatGPT for Healthcare, y las implicaciones legales, éticas y sociales son enormes. ¿Estamos preparados para este nuevo escenario? Para analizarlo, conversamos con María Sánchez Besga, jurista especializada en Derecho Sanitario y Derecho Digital, junto a Pablo Clavero y Nadia Antonini.
Durante el episodio hablamos de:
⚖️ IA aplicada a la salud: oportunidades reales y riesgos
🔐 Privacidad y protección de datos sanitarios
🧠 Uso (y mal uso) de la IA por parte de los usuarios
📜 Consentimiento presunto y regulación europea de datos de salud
🌍 Brecha generacional y desigualdad en el acceso a la tecnología
🏥 ¿Puede el sector sanitario usar IA libremente o debe haber límites?
🛡️ Compliance, regulación y responsabilidad en la implementación tecnológica
👉 La IA puede aportar muchísimo valor en el ámbito sanitario, pero no puede integrarse sin control, sin normas ni sin una base legal sólida. Estamos ante un cambio profundo que no solo afecta a médicos y pacientes, sino también al rol del abogado del presente y del futuro.

🎧 Dale play al episodio completo y sumate a la conversación. Cada semana hablamos sin filtros sobre tecnología, derecho y el impacto real en la profesión jurídica.
📅 Nuevo episodio cada semana
🔔 Suscribite al canal para no perderte los próximos capítulos


Video Transcript

Chat GPT Open AI ha lanzado Chat GPT Health, eh, supongo, para intentar aprovecharpues toda todo el interés de la gente en en temas de salud y en quizá el uso erróneo de estas tecnologías. ¿Qué hace Chat GPT Health? Bueno, te dejo muy claro que no es una herramienta que pretenda diagnosticar ni que pretenda hm decirte qué tratamiento deberías eh a qué tratamiento deberías someterte o el reglamento de inteligencia artificial si hablamos de que sea un hospital, por ejemplo, el que lo utilice. Ahí sí que ya veo en juego obligaciones de pues la generativa en términos de transparencia, incluso de riesgo sistémico, ¿no? que si todo el mundo lo comienza a utilizar, esto podría causar eh serios problemas de desde el punto de vista de la salud pública. Eh, cuando yo leí sobre la sobre esta aplicación, pensaba en la salud eh mental también, que creo que ya hubo consecuencias en cuanto al uso de la IA en eh aspectos de salud mental. Entonces ahí realmente eh es como el uso que le da al usuario y las consecuencias como que eh las responsabilidades son solamente del usuario. se procesan, vamos, cantidades gentes de información y efectivamente, como tú lo decías, yo no sé si es en los últimos 5 años o en los últimos 10, creo que se ha generado más información que en todo el resto de de la historia de la humanidad sea información de calidad y que la podamos utilizar de forma que nos aporte algo y no haga únicamente ruido es el verdadero reto y es un reto que no es solo tecnológico o jurídico, sino también social. y adelante. Muy buenas tardes. Eh, bueno, volvemos de las vacaciones en un nuevo episodio de Yo no soy abogado, pero eh como siempre, bueno, me presento. Soy Pablo Clavero, director en la agencia de marketing jurídico Glissmarket. Tengo como siempre a mi lado, aunque a unos cientos de kilómetros, a Nadia Antonini, más conocida como abogada marquetinera. ¿Qué tal, Nadia? Buenas tardes. ¿Cómo están? Bien, estupendo. Y bueno, pues hoy tenemos a una invitada muy especial que además a pesar de que programamos esta entrevista hace como un mes, ¿no? Creo, eh bueno, pues ha habido unas novedades en los días anteriores y yo creo que el timing, como se puede decir, no puede ser absolutamente mejor. Es un tema totalmente relevante. Tenemos con nosotros a María Sánchez Vesga. Voy a decir tus títulos de lento para no equivocarme mucho. Técnico superior senior de gobernanza en el proyecto Health Data de M R and I. Esto y de Madrid. Madrid. Esa es Madrid, pero puesto ahí una forma rara, ¿no? Experta externa al Comité de Ética de la Investigación con Medicamentos y vicepresidenta de el Consejo de Gobierno de la Comisión Joven de Natic. ¿Eres abogada? No, María, eh, antes te decía que que me había quedado se me había quedado grabado que habías hecho un máster en Estrasburgo, ¿no? De era sobre tema ya de médico, ¿verdad? Sí. No de proyectos sanitarios, sino de bueno, un poco la legislación en general que aplica el Muy bien, fenomenal. Pues nada, bienvenida, muchísimas gracias por compartir este ratito con nosotros y y bueno, no sé si has tenido oportunidad de ver algún episodio anterior y ves un poco cómo lo hacemos, pero nosotros vamos aquí, salimos a un poco a las bravas en directo sin tener nada especialmente preparado, pero fantástic a lo que surja, ¿no? Como se suele decir. Pero lo que si es cierto es que, y lo comentábamos antes en el previo que que bueno, es que entre la semana pasada y hoy han ocurrido como varias cosas en el mundo de la IA, el el mundo sanitario, ¿no?, de salud y y todo esto unido un poco en el tema de la abogacía, que ahora mismo es como el tema más candente, ¿no? Y y yo lo en el anuncio un poco del podcast lo decía, Chat GPT Open AI ha lanzado Chat GPT Health eh supongo para intentar aprovechar pues toda todo el interés de la gente en en temas de salud y en quizá el uso erróneo de estas tecnologías, eh porque aunque nos digan que no se deben usar este tipo de tecnología, ni los buscadores ni las IAS para buscar consejos médicos, los consumidores somos muy cabezones y y lo usamos, ¿no? Entonces han dicho, “Bueno, vamos a poner orden, sospecho, ¿no? Vamos a poner un poco de orden a esto y lanzamos un producto especial para salud, ¿no? ¿Cómo no sé qué primeras impresiones tienes acerca de de esto de chat GPT Health? Bueno, yo estoy un poco, digamos, tengo una deformación profesional, ¿no? Y por supuesto, al ver este tipo de aplicaciones y de tecnologías, lo primero lo que piensas es en la privacidad, ¿no? Y en en las políticas que tienen al respecto.

Esto, en mi opinión eh pues puede parecer como un movimiento meramente estratégico, ¿no? aprovechándose, como bien has dicho, del interés que tiene la gente en utilizar eh este tipo de inteligencia artificial, pero en mi opinión las implicaciones éticas, incluso sociales, van más allá. Eh, pues estaba pensando, ¿no?, eh previamente a a este maravilloso coloquio, eh el hecho de que la situación que tienen en Estados Unidos es muy particular porque, claro, en comparación con la que tenemos en Europa, nosotros tenemos una seguridad social en España, eh tenemos la sanidad pública, es una situación completamente diferente a la que viven los estadounidenses. Eh, con que te metas un poquito en los foros e indagues un poco sobre la opinión pública en este sentido, en Estados Unidos decían muchas personas, bueno, es que tú imagínate, ¿no?, estando en la sala de espera de urgencias a las esperas de unas pruebas h ya sean diagnósticas o de cualquier tipo de resultado que te pueda afectar, ¿no? Y te pueda cambiar totalmente la vida. miedo que tienes que sentir y ya no solo temiendo por tu propia vida, sino por el hecho de cómo voy a financiar, cómo voy a sufragar yo los gastos que literalmente dependen de mi vida, ¿no? Entonces se puede ver como una herramienta maravillosa como de acompañamiento para estas personas o desde el otro punto de vista, desde la óptica contraria, yo podría haber también un una suerte de aprovechamiento de esta situación, ¿no? Estoy siendo un poco crítica, lo sé, aunque también he de decir que es una herramienta muy útil al final. Bueno, sí, también, ¿no? ¿Qué es lo que hace Chat GPT Health? Bueno, te deja muy claro que no es una herramienta que pretenda diagnosticar ni que pretenda hm decirte qué tratamiento deberías eh a qué tratamiento deberías someterte. Sin embargo, ¿qué es lo que hace? Bueno, pues funciona como una herramienta también de gestión documental que podría ser muy útil a la hora de mantener una conversación, pues que te diga chat GPT, ah, y recuerdas que la última semana saliste tres tres veces seguidas a correr y sentiste que te asfixiabas, pues igual no lo había relacionado con la patología que le estás comentando, ¿no? Pues desde ese punto de vista es interesante. Luego también desde el punto de vista de la gestión económica, etcétera, ¿dónde se plantea el problema? Pues que claro, estos son los límites que dice Openi que tiene, pero eso no va a impedir a los consumidores decirle, “Oye, ¿qué tratamiento me recomiendas?” No, aquí cubierto las espaldas. De hecho, me parece superinesante, ¿no?, puntualizar que para empezar es una prueba, ni siquiera lo han lanzado al público como tal y que en Europa no lo van a sacar porque es que no cumple con la regulación actualmente, ni en materia de protección de datos, ni en materia de inteligencia artificial, ni nada por el estilo. Claro. Incluso desde el punto de vista de la IPA, que es, digamos, la normativa más parecida a protección de datos que tenemos aquí, que ni siquiera está concebida para protección de datos. Eh, en este caso, al parecer, porque yo no soy experta en este tema, ¿no?, de Estados Unidos, no aplicaría. ¿Por qué? porque es e al final lo están utilizando usuarios, usuarios que están utilizando chat GPT, entonces no estaríamos eh cubriéndolo. Sin embargo, eh ¿qué riesgos veo yo en esta aplicación? Bueno, más allá de la privacidad, que dejan muy claro que no se almacenan conversaciones y te explican incluso como eh en un manual de qué forma podrías configurar la herramienta para que no guardase las conversaciones, las alucinaciones. No hay que olvidar que se trata de inteligencia artificial y que no es perfecta, ¿no? Y que además se basa en probabilidades.

Em, y bueno, desde el punto de vista de la regulación europea, yo la primera pregunta que me he hecho como abogada especializada en derecho sanitario es, a ver, esto es un producto sanitario, es decir, eh, le aplicaría, ¿no?, una regulación aquí en Europa qué pasa como he dicho previamente, se cubren las espaldas, dicen, “No, esto no es para diagnosticar.” Entonces, en teoría, no se le podría aplicar esa legislación. Y además es que es superinesante porque si te paras a pensarlo, el reglamento de inteligencia artificial que decimos, bueno, pues es una salvaguardia, no se aplica en el caso de del uso personal para usuarios y es que lo han lanzado para el uso de médicos, sino para usuarios. Claro. O sea, lo voy a Yo no soy abogado, ¿vale? como bien eh anuncia, digamos, el título del podcast, pero estoy entendiendo por lo que dices que han encontrado un hueco legal para poder sacar este producto y no asumir responsabilidades sobre lo que digamos el producto pueda decirle a los usuarios.

A ver, aquí hay dos matices. Por ejemplo, desde el punto de vista del Reglamento General de Protección de Datos, al tratarse de datos personales se aplicaría, por lo que desde ese eh esa óptica podríamos estar más o menos tranquilos. ¿Qué pasa? que yo veo que entre realmente el juego el reglamento de inteligencia artificial si hablamos de que sea un hospital, por ejemplo, el que lo utilice. Ahí sí que ya veo juego obligaciones de pues la generativa en términos de transparencia, incluso de riesgo sistémico, ¿no? Porque si todo el mundo lo comienza a utilizar, esto podría causar serios problemas de desde el punto de vista de la salud pública y eh por supuesto las obligaciones con las que tendría que cumplir el proveedor o en materia de responsabilidad si causa un defecto, pues pues sería un producto defectuoso, ¿no? Pero si yo yo a mí lo más interesante es desde el punto de vista éticom eh sería un aprovechamiento, no lo sé. Y yo estaba pensando que también eh cuando yo leí sobre la sobre esta aplicación pensaba en la salud eh mental también, que creo que ya hubo consecuencias en cuanto al uso de la IA en eh aspectos de salud mental. Entonces ahí realmente eh es como el uso que le da al usuario y las consecuencias como que eh las responsabilidades son solamente del usuario. Eh, pues realmente si lo usas para uso personal, sí, salvo que se demuestre, ¿no?, que realmente tú has entrenado esta inteligencia artificial sin ningún tipo de salvaguardas, eh, como por ejemplo decirle, “Oye, me quiero suicidar, ¿de qué forma puedo hacerlo?” un casom eso es ningún caso. Claro, el proveedor ahí sí que tiene que poner una serie de cortafuegos para que esas situaciones ni ocurran y por supuesto no se reproduzcan. Mm, claro, la verdad que que ya digo yo me parece que que a pesar de que desde los organismos públicos y las grandes empresas se intente cortar, ¿no? O o poner las salvaguardas, pero los consumidores vamos siempre por delante y buscamos la manera de encontrar lo que queremos, aunque incluso aunque no nos proteja, ¿no? con con porque ya digo yo soy el primero que soy consciente de cómo es la legislación que que todos estos productos o incluso hace no sé antes de Open AI, ¿no? Y de echas GPT la búsqueda de Google que no te puedes fiar de lo que pone ahí pero no dejas de utilizarlo. Entonces me parece que siempre buscamos el hueco donde donde meternos ahí. Eh, está claro que es utilizarlo con criterio. Sí. Eh, lo que pasa es que si usas GPT o cualquier otro tipo de inteligencia artificial generativa sin conocimiento detrás, te vas a creer. Lo primero que te digo, porque es que además yo creo que está configurado para que te creas lo que lo que se dice y además es una inteligencia artificial particularmente complaciente, ¿no? Luego un de confirmación te dirá, “Tienes razón.” Y pues, ¿por qué me dices esto?

Totalmente. Oye, eh, otro de los aunque ahora volvamos a a que GPT para salud así, pero eh un poco el lo que nos planteabas para la para la entrevista es eh la ley de salud digital, ¿no?, que se está empezando, o sea, está en vigor, pero como que se está empezando a implantar, ¿no?, en España y en Europa.

Sí, exacto. espacio europeo de datos de salud que en España se materializa como un anteproyecto de ley que se llama ley de salud digital. le solicitar, pero creo que tiene un horizonte hm no es precisamente rápido, ¿no? Eh, me parece que es como hasta 2031 así que se van a ir implantando por fases, ¿no? Es como una cosa relativamente lenta. Pero de ahí eh me interesaba una cosa de de lo que habías mencionado en en una otras entrevistas

que te han hecho, que eran lo de el historial clínico, ¿no? o ese expediente o ese historial clínico digital, ¿no?, que que imagino que ya existe a día de hoy, o sea, ya tú cuando vas al médico eh no ves papel, solo ves un teclado y están introduciendo datos y los análisis que te hacen tal, todo entra en algún sitio, pero creo que ya se regula, ¿no?, de alguna manera esto, porque además la transformación digital que está viviendo la sociedad en su conjunto eh influye mucho aquí, ¿no? Ya no es solamente un diagnóstico eh médico clínico que te den, sino llevas un reloj en la muñeca que te mide eh la frecuencia cardíaca, la presión arterial, no sé, hay como una cantidad de datos relacionados con la salud. le llaman de bienestar, ¿no? De wellness, pero al final es relacionado con la salud, ¿no? Entonces, ¿qué nos puedes contar acerca de esta ley de salud digital de de lo que está cambiando y en qué afecta? Bueno, quien nos ve, la mayoría son abogados, ¿no? Entonces, en qué, como tú bien decías, ¿qué oportunidades surgen con todo esto para la abogacía?

Por supuesto. Pues mirad, eh lo primero que me gustaría decir al respecto es que por lo menos en España, tenemos un grado de madurez digital bastante alto en comparación con otro tipo e con otros

estados miembros de la Unión Europea, porque algunos todavía trabajan con papel, algo que nos parece casi inconcebible a día de hoy, pero bueno, también tiene su ventaja, ¿no? Porque nosotros que ya hemos empezado, pues si hemos cometido errores, tendremos que solventarlos y eso también es un freno. Sin embargo, pues podrán partir de cero eh sin este tipo de complicaciones, aprendiendo de la experiencia previa, ¿cierto? E nosotros tenemos una historia clínica en nuestros centros de salud, ¿no? Donde y además está regulada la historia clínica en la ley de la de autonomía del paciente con cuál es su

contenido mínimo, que es una historia clínica, eh se controla también el acceso, ¿no? O sea, un médico o una enfermera o incluso eh personal administrativo puede acceder a tu historia clínica electrónica siempre y cuando sea con una finalidad muy concreta y no por mera curiosidad. se han producido condenas muy importantes

eh pues precisamente tal vez eh por personal sanitario que tenía curiosidad, por la razón que sea, pongamos por celos o por relaciones sentimentales y han sido condenados. Wow.

Bueno, pues, ¿qué es lo que ocurre con la historia clínica electrónica? Como digo, esto ya existe en España. De hecho, eh tuvimos la suerte de poder participar en un proyecto que se llamaba

EHealth Network, eh donde lo que se pretendía hacer era promover, ¿no? El tener una historia clínica electrónica, la digitalización, incluso una palabra clave transversal que es la

interoperabilidad, que es precisamente el problema. H esta era una iniciativa voluntaria y lo que se ha conseguido hacer con el reglamento del espacio europeo de datos

de salud es hacerlo obligatorio y obligatorio de una forma homogénea, que no cada uno vaya haciendo lo que le parece bien, porque entonces volvemos al problema del inicio. ¿Qué es la interoperabilidad? ¿Qué es esto tan interesante? ¿No? Pues es al final hablar el mismo idioma, porque ahora mismo nos sorprendemos. Yo, por ejemplo, soy transfronteriza eh de la región vasca, por tanto, o sea, de la comunidad autónoma del País Vasco. Por tanto, en esa región somos transfronterizos con Francia y puede que para ellos una cama de hospital no se diga de la misma forma que, como se diría por ejemplo en San

Sebastián y ahí, por ejemplo, se pueden producir malentendidos y eso también ha ocurrido durante la pandemia que ha supuesto un freno. Entonces, lo que queremos es hablar el mismo idioma, estandarizarlo para que el día de mañana, por ejemplo, si se nos ocurre viajar dentro de la Unión Europea, pues podamos ser atendidos por profesionales sanitarios de las mismas condiciones que lo seríamos en en ya no digo ni en nuestra comunidad autónoma, sino donde nosotros vivimos, porque incluso en las propias comunidades autónomas hay una falta de interoperabilidad. A mí personalmente me ha ocurrido ir al médico y decirle,

“Bueno, sí, porque este informe y pararme los pies y comentarme, perdona, no tenemos no tenemos constancia de esto.” Digo, “¿Cómo? O sea, ya no estoy diciendo País Vasco, Madrid, no, no. de Bilbao a San Sebastián. O sea, para que os idea de de lo importante que es esto. Y esto es una cuestión fundamental, sobre todo desde el punto de vista de la continuidad asistencial, ¿no? Para que no se pierdan por el camino eh datos que son esenciales para poder proveernos de de asistencia sanitaria y que, vamos, se pueden cometer errores muy importantes. Eh, pero es que nosotros nos hacemos a la idea cuando vamos a a los eh centros sanitarios de que estamos en buenas manos y por supuesto lo estamos, pero

somos todos humanos y cometemos errores. Hace poco hablé con el CEO de una startup que tenía una idea superinesante y hablaba de algo tan sencillo como poder

identificarnos a través de una huella dactilar porque no sabéis la de problemas que surgen a raíz de perder la e pulsera y oye, pues igual amaneces con

una pierna menos. cuando estás ingresado en un hospital, o sea, te refieres a la puls a la pulsera que te ponen en al estar ingresado rudimentario. Es una pulsera de papel que se puede caer y es la única forma que tienen de identificarte. Totalmente. Mm. Sí. y alguien que no esté, que haya perdido el conocimiento, que no esté, pues desde luego, sin duda. Y y y una pregunta, María, el en relación a la ley de salud digital y y de esa interoperabilidad, ¿no?, de que ya el el tema es transfonterizo, que además me parece muy razonable porque hoy en día los ciudadanos tienen o tenemos mucha movilidad, ¿no? Nos movemos continuamente, viajamos mucho y tal. Eh, ¿cómo queda la quiénes son los jueces competentes en un caso eh transfronterizo, digamos, no? De aquí eh ¿qué ley aplica? O si es que hay diferencias entre la ley entre países, si hay un error que se comete en Alemania y lo en un ciudadano español o un paciente en Madrid que que se tiene alguna regulación. Llega la ley hasta ese punto de de Para resolver estos eh problemas, lo que tenemos es el derecho internacional privado. Eh, yo no soy especialista en eso, la verdad es que me pareció un poco complicada, no voy a mentir. Sí, sí. Sí que os puedo comentar es que en el marco de este reglamento se van a instaurar a designar unas autoridades de salud digital, por lo que si vemos nuestros derechos vulnerados en el marco de, bueno, es que no lo he comentado, que es esencial, esto se llama uso primario, que el uso primario es el uso de los datos, de nuestros datos, ¿no?, para poder eh proveernos de de asistencia sanitaria. Entonces, pongamos pues que se vulneran nuestros derechos

en materia de protección de datos, pues además de poder acudir a la Agencia Española de eh perdón de productos unitarios ya de Protección de Datos, datos, dirigirnos a estas autoridades que van a estar en cada estado miembro y que, por supuesto, tendrán que coordinarse con el resto de las autoridades eh de los diferentes países de Europa. Mm, claro. y y y hablabas de Bueno, me he metido, eh, Nadia, no sé si quieres hacer alguna pregunta. No, le no, quizás iba por un poco otro tema, pero con respecto a la a la historia clínica, en cuanto a la prueba, a la eh originalidad o a la sí eh autenticidad para presentar en un expediente, en un caso de mala praxis, eh cómo tiene alguna medida de seguridad, supongo, ya que no va a haber papel. Bueno, o sea, es tan sencillo como la propia historia clínica. Eh, evidentemente las partes que sean necesarias, porque a un juicio tampoco vamos a aportar más allá. Eh, pues eso es una prueba, forma parte de las pruebas, eso es documental. Eh, se pueden aportar pruebas digitales también o imprimir. La verdad es que nunca me he encontrado en esta situación, pero estoy segura de que se podría aportar como prueba si hiciera falta. Bien. y y y bueno, respondiendo, discúlpame, no verás, es que se me está ocurriendo que ese ese historial clínico digital que con el con la aportación de, me imagino que el volumen de datos que se generan respecto a a los pacientes dentro de un centro sanitario está creciendo exponencialmente porque cada vez hay más tecnología, más eh no sé, alguien que tenga eh problema, sea diabético, por ejemplo, eh los controles de glucosa antes serían una vez al día y ahora pueden ser una vez cada minuto, ¿no? Imagino que el volumen de datos crece exponencialmente. Eh, ¿requiere esto de nuevas habilidades por parte de los abogados? Eh, porque claro, un abogado que esté ejerciendo y que tenga en sus manos un caso, como dice, de mala praxis, de negligencia o de tema relación al sanitario, ahora a lo mejor está mirando, o sea, ahora no hay un expediente o un historial clínico de unas cuantas páginas, sino de unas

cuantas miles de páginas, ¿no? Esto requiere de nuevos conocimientos o de o de extender el conocimiento hacia otras áreas.

Eh, pues para la gente que ejerce eh la abogacía. Bueno, yo iba a referirme al abogado como un actor esencial en esta

transformación digital. Para empezar, porque evidentemente, por ejemplo, los profesionales sanitarios van a tener que ellos sí eh adoptar una serie de nuevas medidas y formarse para poder recoger la información de una forma estandarizada para que sea sean capaces de compartirlo. Y por otro lado, losados e ya más allá incluso del reglamento, eh nos tenemos que ir adaptando y sobre todo ahora mismo es e evidente que ahora hay una oferta también formativa grandísima y que cada vez hay más competencia desde ese punto de vista porque ahora son incluso gratuitas y no los ofrece cualquier tipo de entidad, te la ofrece el Consejo General de la Abogacía Española, el ilustre Colegio de Abogados de donde sea. y formaciones transversales que no únicamente se refieren al derecho digital, sino que también se refieren a competencias digitales e en el sentido estricto, ¿no? Eh, aprender a gestionar toda la información. Pues para eso, ¿qué es lo que suelen hacer muchas veces?

pues enseñarte a integrar inteligencia artificial en tu correo electrónico para que te haga un resumen, transcribir reuniones y desde el punto de vista del del litigio, bueno, yo es que creo que la abogacía y todos los sectores se tienen que dirigir a a colaborar de forma estrecha con otro tipo de profesionales. Esto de aislarse y de a nivel individual tratar de sacar adelante un problema no me parece la forma más eficiente de resolverlo. Entonces, si se tienen dudas o si no se consigue desde el punto de vista técnico abarcar tanta información y por lo que sea se necesita ayuda, pues contar con otros profesionales, ¿no? Al final con el big data también se procesan, vamos, cantidades ingentes de información y efectivamente como tú lo decías, yo no sé si es en los últimos cinco años, en los últimos 10 creo que se ha generado más información que en todo el resto de de la historia de la humanidad. Sí, sí. Sea información de calidad y que la podamos utilizar de forma que nos aporte algo y no haga únicamente ruido es el verdadero reto y es un reto que no es solo tecnológico o jurídico, sino también social porque no tenemos que dejar al margen a las personas que o no pueden acceder a la a la tecnología o no o no saben hacerlo o simplemente no les interesa, ¿no? Entonces, desde ese punto de vista también eh yo creo que el abogado, además de tener que adquirir nuevas competencias, también va a ser un gran comunicador y e no desde el punto de vista de explicar algo y hacerlo bastante complicado para no sé si parecer algo más importante de lo que somos, porque somos esenciales como cualquier otra profesión, sino de traductor, de facilitador, de efectivamente de tender puentes. Mm. Sin duda. Eh, ¿y crees crees que esta adopción de tecnología tan intensa, tan rápida en los últimos años genera una brecha? Eh, verás, tú estás eres

abogada, pero estás conectada, ¿no?, con la Comunidad de Madrid, si he entendido bien, ¿no?, con un poco organismos públicos. ¿Cree que crees que puede haber una brecha en cuanto a eh la sanidad para eh pues para ciudadanos que puedan acceder a esas tecnologías eh nuevas y ciudadanos que no puedan acceder? Hay hay dos tipos de sanidad hoy en día. Esta pregunta a lo mejor es muy polémica, pero eh la tecnología hace que haya dos tipos de de sanidad distintas para los ciudadanos. Pues precisamente esta es una cuestión importantísima, acercar a la ciudadanía todas estas evoluciones y y al final yo, por ejemplo, pienso en las personas mayores, que son quienes más van al médico y no dejan de hacerse aplicativos y este tipo de plataformas que son realmente útiles y donde te informan al máximo, pero que no llegan a todo el mundo. De hecho, hay una directiva que

precisamente su objetivo es hacer accesible eh las plataformas, las páginas web, bueno, un poco todo, pero no solo a personas eh que por una cuestión de edad no saben manejarse,

sino qué ocurre con las personas que son ciegas o que son sordas. pues realmente hay una obligación eh a través de esta directiva de cumplir para

que se pueda, digamos, facilitar el uso de estas tecnologías a las personas. ¿Qué ocurre? que no sé si es por falta de recursos o de ganas o desconocimiento no se acaba cumpliendo y y a mí eso me parece, bueno, pues no me parece bien, desde luego. En cualquier caso, eh esto me hace pensar en el uso secundario del reglamento del espacio europeo de datos de salud, que es pues esos datos que hemos generado, ¿no?, para para que se nos atienda y otro tipo de datos eh que podemos generar, como tú has dicho, a través de eh de pulseras, ¿no?, de e o de otro tipo de aplicaciones. Eh, el hecho de que nosotros podamos hacer que sean interoperables con la historia clínica electrónica, quiere decir que después os podremos reutilizar. Es un ejemplo como otro cualquiera, ¿no? ¿Y qué se va a hacer con el uso secundario de estos datos? pues se puede investigar, se pueden producir avances científicos realmente importantes y una cuestión esencial en en la investigación es que los resultados sean representativos. Por ejemplo, ¿qué sentido tendría realizar una investigación sobre una enfermedad que es prevalente en la población que es más mayor si no contamos con los datos de estas personas? Entonces, si los pacientes de una edad más avanzada no son capaces de generar esos datos eh al mismo ritmo que, por ejemplo, el resto de la población, aquí tenemos una brecha importantísima. Se está marginando incluso de los beneficios sociales que las leyes están ahora mismo generando, ¿no? Claro, eso cuenta también. Mm. Vamos, yo la brecha la veo claramente, no sé, ves a cuento un caso particular, mis padres que ya están en los 70, 80 para pedir una cita médica se las ven y se las desean porque llaman por teléfono y hay un chatbot, ¿no? Una IA, un asistente de IA de voz y no consiguen transmitir la información. Entonces, empezando por ahí, hasta el resto de la cadena e o de o de todo el sector sanitario, es que esa brecha es real, ¿no? Y y y claro, vamos, nosotros que quizá tenemos estamos en otra generación y hemos podido adaptarnos un poco a todos estos cambios de una manera o somos más flexibles, ¿no? y tenemos la mente más abierta y veo vemos que está y nos adaptamos un poco a lo que viene, pero esas generaciones eh mayores, por eso digo, ¿no?, esa brecha creo que está, ¿no? Y si la legislación no pone un poco de orden en esto y permite que la tecnología sea accesible para todo el mundo, eh pues tenemos un problema bastante grande de desigualdad y y de incluso de de responsabilidades, ¿no? Porque quien no pueda acceder a a como digo, a todo la tecnología disponible me parece que está en una clara desventaja, ¿no? podría pedir responsabilidades a pues a quien ordena todo esto, ¿no? Quizá. Claro. Y además es que eh yo creo que las tecnologías son el medio a través del cual la comunicación se realiza prácticamente al 100%. Y y retomando un poco el tema de el reglamento del espacio europeo de datos de salud, una cuestión que además es muy polémica es que nuestros datos se van a utilizar sin que nosotros necesariamente demos nuestro consentimiento porque se presupone que, bueno, es un consentimiento presunto. Esto es como cuando nosotros fallecemos y nuestros órganos se donan automáticamente, salvo que nosotros hayamos manifestado lo contrario. Pues lo mismo ocurre con nuestros datos. Pero bueno, también yo plantearía si sabemos que los datos salvan vidas, ¿no? Porque los tratamos de una manera diferente que nuestros órganos a la hora de fallecer. Yo entiendo que seguimos

vivos, eh, es una cuestión muy importante, pero eh a lo que voy es que para ejercer este derecho que se llama el derecho de autoexclusión, que quiere decir que no queremos que se utilicen nuestros datos pues para estos fines secundarios, que hay varios investigación científica, formulación de políticas públicas, eh estadística, tenemos que estar previamente informados para ejercerlo de una forma efectiva, porque igual por miedo, sin conocer las miles de garantías que hay ahora mismo previstas, pues por un miedo al mal uso de nuestros datos decimos, “No quiero que se que se utilicen.” Y claro, si ya es difícil llegar a personas, por ejemplo, mayores, retomamos el tema de la desigualdad, pues vamos a acrecentarl. Y se me ocurrió que también eh como hay desigualdad con las personas mayores, también yo creo que falta información en las en la en la edad primaria sobre cómo usarlo, los límites de este uso. Me parece que en las dos brechas se podría educar y hacer algo para que el uso sea correcto también y el se me ocurre quizás en las edades mayores es el acceso a la salud, pero en las edades más más chicas es también eh este uso de la tecnología para eh preguntar cosas, para usarlo de psicólogo muchas veces. Entonces, creo que también se podría informar sobre ciertos límites, cierto tipo de usos. Efectivamente, de hecho, tenemos ahora un ejemplo que no necesariamente incumble a la incumbe a las personas menores de edad, pero son la generación de deep fakes de personas eh pues bueno, eh sin ropa básicamente, que atente evidentemente al derecho al honor y los menores por suerte o por desgracia son están muy espabilados y saben utilizar las tecnologías y forman parte de ellas y están dentro de las redes sociales. y también se pueden ver perjudicados por estos peligros eh, pues que acechan constantemente y que están de plena actualidad. Vamos, hace falta mucha educación en en y y muchísima información, ¿no? Sí. Y siento que todos los puntos se terminan tocando con el derecho. Pues sí, por lo menos es el punto de vista de la regulación, pero el derecho lo que lo que hace es explicarnos, ¿no?, o tratar de de poner unos límites a la forma en la que nos tenemos que comportar. Pero yo creo que lo más importante es la educación, porque si nosotros no regimos por una serie de valores, no tendríamos que llegar a estos límites. Lo que pasa que, bueno, en el mundo hay de todo, ¿no?

Cierto, de todo hay. Eh, María, una cosa que se me ocurre, quizás es una maldad, pero pero se me ocurre al respecto este de la autoexclusión, ¿no? De de que nuestros datos de historial clínico, aunque sean anonimizados, ¿no?, o se puedan usar para estudios. Eh, esos estudios o eso ese uso de los datos, me imagino que de forma masiva se regula en eh para que no tenga un uso un poco eh un mal uso, digamos, o un uso sesgado de todos esos datos. Y verás, se me está ocurriendo, como digo, una maldad que una compañía aseguradora médica eh, bueno, estimule los algoritmos de alguna manera para no recomendar pruebas demasiado costosas, ¿vale? y así ahorre cierto dinero entre sus asegurados, ¿no? Al igual que nosotros hace un momento estábamos hablando de el mal comportamiento que puede tener una persona, también lo ha pensado el legislador europeo y al igual que en el reglamento de inteligencia artificial hay sistemas de inteligencia artificial prohibidos, hay fines prohibidos para los que no se pueden utilizar estos datos de salud. Eh, pues precisamente, ¿no?, para causar un perjuicio eh en cuanto a aseguradoras, bancos, e empleo. Y también no se tienen que utilizar estos datos ni se pueden utilizar para fines de mercadotecnia o para contravenir la legislación que existe actualmente eh en términos éticos. tenemos que guiarnos por eh los usos prohibidos y además cuando se pidan los datos para investigar o para cualquier otro de estos cines secundarios, tiene que ser siempre eh en en beneficio del interés general, del interés social. No puede ser a nivel lucrativo, porque como farmacéutica me interesa sacar este

 medicamento y no tengo, digamos, unos pacientes con los que quiero investigar. ¿Me explico? Claro. Bueno, bueno, creo que el chat GPT Health es

una consecuencia de la información que recaudó esa inteligencia artificial y y evidentemente vio que un gran porcentaje de la población que lo usaba lo usaba con ese fin y dijeron, “Bueno, acá hay algo que podemos explotar.” Yo no creo en la bondad de una empresa así. Yo creo que hay fines comerciales detrás. Está claro que han visto un problema y es, por ejemplo, en España tenemos el caso de la saturación eh de los médicos que tienen 10 minutos de consulta por cada paciente y ven 60 pacientes al día, por lo menos y en Estados Unidos ocurre eh pues que no todo el mundo precisamente se puede permitir acceder a la sanidad. Entonces, han visto ahí un vacío que una inteligencia artificial generativa podía llenar y simplemente digamos que han aprovechado la oportunidad. Lo importante es ponerle límites y que si se va a utilizar, porque además es que sería absurdo prohibirlo porque bueno, desde mi punto de vista regulatorio, eh si tú prohíbes algo se va a seguir haciendo. La cosa es regularlo porque así somos los seres humanos. nos dicen que no algo y de hacerlo, ¿no? Pues por lo garantías desde el punto de vista eh de derechos fundamentales, ¿no? De protección de aunque sea cosas básicas como la dignidad, el derecho a la privacidad. Eh, bueno, que no vayamos a la deriva al final en términos sociales porque sería la 14. Claro. Y desde desde el sector, digamos, desde el sector de la sanidad se regula de alguna manera la incorporación de de estas inteligencias artificiales generativas, porque se me ocurre eh me han dicho un pajarito por ahí que algunos doctores pasando consulta pueden estar usando chat GPT para, bueno, digamos mejorar su diagnóstico o acelerar o hacer h eh eh porque claro, al final estos modelos, ¿no? de de LLMs eh han probablemente leído más eh más literatura médica que cualquier doctor puede hacer en su vida, ¿no? La base de datos de la base de conocimiento es absolutamente inmensa, ¿no? No sé si la ley de salud digital ha tocado ese área. Es decir, pueden puede

 el sector médico, el sector sanitario incorporar IAS o incorporar esa tecnología más o menos a su antojo o tienen que estar, ¿no? tiene que haber alguna salvaguarda también en ese sentido, no solo de la parte del paciente y de los consumidores, sino también del de la parte de la industria. Pues precisamente está regulado, se pueden integrar, lo que no se puede hacer es de cualquier manera. Esto es como, imaginémoslo, en cualquier empresa, eh desde el punto de vista del compliant, lo que pretende hacer el abogado o el encargado a nivel legal de esto es saber cómo se está utilizando para dar una serie de instrucciones, formaciones para que se pueda utilizar.

¿Qué ocurre con la IA, por ejemplo, eh que se utilice para pasar consulta? Porque sí que es cierto que eh puede tener eh la capacidad de procesamiento de información que no tenemos los seres humanos, pero eso no quiere decir que lo haga mejor. digo, en términos de calidad, ¿no? Cierto. Em, y hay muchas formas de utilizar la inteligencia artificial en consulta. Ahora, una que era muy interesante era eh pues que nosotros como pacientes cuando llegamos a la consulta, una cosa que se suele echar bastante de menos es que el paciente, o sea, perdón, que el médico te mire a los ojos, ¿no?, cuando le estás contando algo. Entonces, ¿qué es lo que hacían? era poner una inteligencia artificial que retranscribiera la conversación, que luego te la segmentara por patología o por puntos clave, ¿no? Para luego el diagnóstico, cualquier cosa, y mientras el médico tuviera una conversación como debería de tenerla contigo. Bueno, pues esto se puede hacer. Eh, ¿qué ocurre? Dependiendo de si es un producto sanitario o no, tiene que pasar por una serie de procedimientos. eh lo que se llama evaluación de conformidad, que es básicamente eh a partir de la

documentación técnica pasar un proceso donde se pues se verifique que a nivel de datos son datos de calidad, que se gobiernan y que hay ciberseguridad y que no va a haber brechas o que se ha hecho una evaluación de impacto y que se sabe que eh si hay un riesgo se va a intentar mitigar. Eh, también si se necesitan hacer investigaciones que ha pasado por un comité de ética de investigación que ha dado el visto bueno y que al final ese producto sanitario hace lo que dice hacer, ¿no? Y qué ocurre. Bueno, esto es en el caso de que son productos sanitarios. Si es una inteligencia artificial, eh, que es una aplicación de bienestar, pues aplicarán otras salvaguardas como el Reglamento General de Protección de ADOS, por ejemplo. ¿Qué ocurriría si un médico ahora mismo está utilizando Chat GPT para diagnosticar tiene el permiso ni la regulación eh y causa un perjuicio? Bueno, pues lo

que ocurre es que si se, o sea, para empezar no sería responsable eh, por ejemplo, digamos open AI porque con chat Health se ha dicho que no se utiliza para diagnosticar. Entonces, ya estaríamos hablando de que en términos rescitorios el único responsable sería el hospital. Mm. Después, por otro lado, si se personalizara o se realizase una modificación sustancial o incluso se cambiara la finalidad de la inteligencia artificial, se convierte en el desarrollador, en el proveedor. Es decir, asumiría las obligaciones legales del desarrollador del software. Ajá. Eso hay que tenerlo en cuenta porque a nivel legal repercusiones muy grandes y me gustaría estar en su estapatos, la verdad. No, no, no, desde luego que no. Y y se me ocurre, le digo, otra vuelta de tuerca a esto. Eh, vamos a suponer que un hospital incorpora una IA, un o una tecnología para un procedimiento médico. No sé si escuchan hoy en día cirugías realizadas por robots, ¿no? Esto de da Vinchi, cosas del del estilo. ¿Qué ocurre si una tecnología de este tipo falla? porque imagino que también puede fallar, a lo mejor no tanto como los humanos, pero pero tiene que tener algún fallo y hay eh un un dolo, ¿no? Por hay un grave perjuicio en un paciente, hay mala praxis de la tecnología. se puede, no sé, un paciente puede eh denunciar y y a la en este caso, claro, habitualmente los casos de mala praxis no son contra los propios facultativos, ¿no? Contra los doctores, me imagino,

quién quien ha aplicado el tratamiento. Aquí, ¿qué se hace? ¿Es contra el hospital? ¿Es contra el fabricante de esa tecnología? pues planteas una cuestión muy interesante porque lo que ocurre con la inteligencia artificial son varias cosas. Por un lado, que hay una multiplicidad de actores eh que juegan papel papeles fundamentales, ¿no? Eh, desde su desarrollo hasta la implementación. Pues habría que para empezar descubrir cuál es el origen del error, si se trata de un error de configuración por parte del responsable de despliegue o si ya es un error que venía previamente con el producto. Eh, en este caso que me has planteado, ¿no? si se tratara de un usuario, si por ejemplo ha tenido la diligencia mínima de leer las instrucciones antes de utilizarlo, hay que pensar que el fabricante o el desarrollador ha tenido que hacer un ejercicio de imaginarse todos los malos usos que se le podría dar a su producto y en base a eso hacer una serie de instrucciones y además explicar al responsable de despliegue que estas son las obligaciones de transparencia y de información, cuáles son las limitaciones de esa de de ese robot o de esa o de lo

que se esté hablando en cuestión. Mm. Y además lo bueno de este tipo de robot, por lo menos de lo que yo he escuchado hablar a un ciruj un cirujano, eh nos comentó que este tipo de tecnología, si por ejemplo se queda sin wifi, ¿no? Que además eso es una cuestión super importante, o viene un hacker, lo hackea y empieza a modificar los antojos, bueno, pues que se pare automáticamente, que no habría forma de hacerle daño, digamos, al paciente. Eh, además de que se trata de profesionales que han pasado horas de entrenamiento, esto es como lo podríamos asemejar, ¿no?, a un piloto de aviones que ha pasado horas previamente también entrenando. Sí. Em y y ¿qué te iba a decir respecto? Se

me va a veces mucho el santo al cielo, ¿no? Bueno, que que al final la responsabilidad eh de esos errores, ¿no?, pues está distribuida entre muchos, no hay un único responsable, no hay como muchos actores, ¿no? Dentro de atender al estado del arte porque tampoco le pedir superpoder a a los médicos, ¿no? Es cierto. Depende, como siempre en derecho

depende. Pero bueno, con el símil de los aviones también, los cuáles eran los Boeing 320 o algo así, estos que se caían, ¿no? Hace no mucho. También había cosas, ¿no? Que a veces escapan, ¿no? De de todos los controles de la industria. En fin, yo no quiero decir nada. Yo solo me subo en un nervos. Exacto, exacto, exacto. Eh, apasionante. La verdad es que que surgen tantas ramificaciones y tanto, ¿no?, casuística distinta que prácticamente la la bueno, te puedes inventar cualquier cosa. Eh, yo me quedo un poco con con la parte de Bueno, volviendo un poco a este chat GPT Health, ¿no? Creo que también para el caso de Estados Unidos que tú mencionabas puede servir de trije, ¿no? Lo típico que se hace que

aquí en Europa, ¿no? En España, que tenemos una sanidad gratuita, ¿no? Accesible para todo el mundo, hay muchas veces que se desde los hospitales, ¿no?

Desde los organismos se dice que la gente va por un simple resfriado o por una cosa que que no tiene importancia y por eso se colapsan, ¿no? la la las emergencias, ¿no? Las urgencias, eh quizá accediendo a tecnología y usándola de forma responsable, pues a lo mejor evitamos colapsar eh todos los servicios sanitarios, por lo menos para los casos que sean realmente graves, ¿no? Y y cosas que sean leves, pues pues bueno, no tiene sentido que que se acudan unas urgencias, ¿no? ¿Cómo lo ves en este sentido? Pues precisamente es uno de los casos que prevé el reglamento de inteligencia artificial y que se considera de alto riesgo. También es cierto que hay múltiples factores por lo que por los que ahora mismo vendría bien una de triaje en en las urgencias, pero yo como paciente pienso, pongamos que acudo a a urgencias porque no tengo cita hasta dentro de dos semanas con mi médico y tengo un herpes que es extremadamente molesto, ¿no? pues en la farmacia no se me podría dar sin receta el medicamento y en otros países la forma en la que lo están solucionando es atribuyéndoles más competencias a los farmacéuticos a la hora de dispensar medicamentos que evidentemente pues son cuestiones básicas, ¿no? Oye, tengo un herpes o no se me ocurre ahora, pero unas pequeñas angjinas o bueno, circunstancias por las que precisamente nosotros no iríamos a urgentes, pero que acabamos colapsando y cuando utilizan una para el triaje se convierte en una regulada de alto riesgo y tendría que cumplir con varias obligaciones, como he dicho previamente, de pues de los artículos 9 a 15, que como he dicho, ciberseguridad, gobierno del dato, documentación técnica, evaluación de conformidad y y por supuesto eh hacer eh una evaluación eh de impacto de los derechos fundamentales. Em, de hecho, yo soy consciente de que hay proyectos en los que se está intentando llevar a cabo este tipo de iniciativas y no me cabe duda de que dentro de poco lo veremos en, vamos, en nuestros propios centros. Hm. Eh, pero bueno, antes de continuar, no sé si os parecería hablar un poco de del abogado del futuro en términos de derecho digital y derecho sanitario. Me has leído la mente porque eh es que es verdad, solemos ir resumiendo, ¿no? Tenemos como costumbre, ¿no? Cuando vamos ya resumiendo o cerrando un poco los episodios, solemos hacer esa pregunta práctica, ¿no? de de oye, ¿qué consejos das que a a bueno, no solo a los abogados del futuro, a los del presente también, ¿no? Porque imagino que habrá muchos abogados ya establecidos, a lo mejor no los tan jóvenes, que ven todo esto y dicen, “Buah, me tengo que poner las pilas,

¿no? Así que tienes la vía libre para dar todos los consejos, trucos que que tú hayas visto, obviamente en tu experiencia especializada, ¿no? En derecho

sanitario, ¿no? Adelante. Quería puntualizar que para mí el abogado del futuro es el abogado del presente, es simplemente consciente de los retos actuales y con todas las ganas del mundo de mantenerse actualizado. Eh, una cuestión que yo he visto en mis pocos años de, la verdad, de ejercicio profesional, porque vamos muy pocos, a lo que me refiero es, hay una escasez de un abogado que tenga los conocimientos especializados, además de dos tipos, digamos, de ramas del derecho, que es el derecho digital y el derecho sanitario, hacer una intersección entre estas dos especialidades y que además tenga las competencias digitales para poder desenvolverse en este nuevo mundo que se nos está abriendo. Entonces, eh lo que yo recomendaría es, sobre todo, más allá de actualizarse, el ser un abogado accesible y que esté constantemente al día, porque una de las mayores oportunidades que tenemos actualmente, por lo menos los abogados de este tipo, es eh el hecho de que la normativa es muy compleja y es realmente abundante, incluso eh se solapa. Entonces, el poder ser capaces de descifrarlo, ¿no? Y de darle forma y de hacerlo explicable para los clientes. Y por otro lado también el mantenerte actualizado porque lo que se intenta con el reglament la propuesta del reglamento de ómnibus o las propuestas de simplificación de las normativas es precisamente eso. Se dan cuenta de que estamos sobrregulados y de que necesitamos un punto de vista práctico, porque al final lo que se pretende es respetar los derechos. y que las circunstancias se desenvuelvan de la forma más óptima posible. A veces no hace falta más regulación, sino hacerlo de una forma pues más efectiva. Y yo veo que ya no solo en el prisma del derecho digital y el derecho sanitario, sino en el resto de las ramas del derecho, eso es lo que se busca, ¿no? Un facilitador. A veces la sobrereulación creo que aleja el derecho eh al día a día de la gentem precisamente. Y es que lo que decíamos, el tejido más grande que tenemos en Europa y creo que también en España empresarial es el de las empresas medianas y las startups y no se puedenir el hecho de pagar para cada nueva normativa que tengan un abogado al respecto. Claro. Entonces, hay que ser multidisciplinar también, especializado, pero multidisciplinar. es encontrar un equilibrio. Pero entonces, María, ¿tú recomiendasa a esos abogados jóvenes, ¿no?, del futuro, ¿le recomiendas especializarse en, por ejemplo, como tú has hecho, ¿no?, en derecho sanitario, derecho digital, o crees que con bucear, ¿no?, No, en en la normativa y empaparse bien. Eh, un abogado generalista puede dar un un consejo adecuado, o tener una visión adecuada para todos estos temas que o o a lo mejor las dos son válidas. Eh, no, no lo sé. Yo aquí concibo dos vías y claro, si estamos hablando de un abogado que pues recientemente acaba de terminar los estudios, pues evidentemente es una opción el especializarse. Pues, ¿qué ocurre cuando ya tenemos una trayectoria y nos gustaría eh pues ser capaces de ofrecer un buen consejo a nuestro a nuestro cliente? Bueno, pues para empezar hay que ser conscientes de que no se puede abarcar todo, ¿no? No quiere decir quedarse obsoleto, pero no se puede abarcar todo. Entonces, a veces es mejor poco y bueno que mucho y malo. Entonces, si vemos que nosotros no conseguimos eh llegar, pues se puede perfectamente [ __ ] y colaborar con un compañero que sí que esté especializado en estos temas. Sí que es verdad que siempre te puedes empapar de la normativa y que no me cabe duda de que hay abogados maravillosos, autodidactas, que lo van a hacer fantásticamente, pero lleva tiempo y tal vez no sería el ritmo que buscan alcanzar algunos abogados, pero siempre se pueden hacer cursos poco a poco. Estoy convencida de que a todo se llega. Lo que pasa que hay normativas que son realmente complejas y que, bueno, no siempre es fácil hacer el salto de una especialidad a otra de la nada, pero es totalmente posible

reconvertirse incluso. Y aparte pienso, perdón, que como eh con la inteligencia artificial muchos abogados buscan empaparse estas nuevas ramas y se forman pensaba en una especie de alianza. ¿Por qué no hacer esa alianza con otro colega que esté especializado y que quizás eh no verlo como una competencia, sino como una colaboración que los puede potenciar? Hm. Puedo estar más de acuerdo. Para mí una de las cosas más bonitas son eh las maravillosas amistades que se forman eh por la vía de la profesión, que además se convo, en grandes amigos. Y yo no aconsejo esa toxicidad de ver al al de enfrente como un contrincante, porque nos podemos aportar muchísimo y yo siempre considero que si quieres llegar rápido, ves solo, pero si quieres llegar lejos, ve acompañadom Bueno, aquí desde desde este podcast hemos abanderado desde el principio la especialización, entonces me parece que es un perfecto complemento con la asociación, ¿no? que que hayan muchos especialistas en áreas muy concretas, pero que colaboren entre ellos para al final para al final generar soluciones jurídicas mejores, ¿no?, para los clientes, ¿no? O sea, que en Argentina eh en Argentina es muy común escuchar estudio jurídico integral como despacho de abogados integral. Es muy común en Argentina y realmente yo cuando quizás tengo una entrevista con un abogado que tiene un estudio jurídico integral, le pregunto siempre, ¿es integral de verdad? ¿La persona tiene una atención integral? Quizás en derecho de familia uno puede pensar un despacho jurídico integral como alguien, un abogado de familia, una psicopedagoga, un psicólogo, un asistente social, eh no sé. Eh, entonces digo, es integral. Bueno, quizás también se puede desde la asociación se puede pensar en una atención integral para el el cliente. Yo estoy segura de que hay muchos modelos de negocio que precisamente pone que es integral, pero que es que somos todos humanos y lo que seguramente se haga sea colaborar. Sí, sí, sí. No, me parece bastante más razonable el el eso, el intentar colaborar con otros especialistas que han profundizado mucho más en áreas tan específicas, ¿no? Y y aquí el caso del derecho sanitario y y la combinación con digital, que me parece, sin ser abogado, repito, siempre digo esto, pero me parece muy difícil de abarcar por alguien que luego, además quiera ejercer en en otras ramas, ¿no? Así que que me parece bastante lógico, pero ya digo, lo abandon somos abanderados de de esa de esa sugerencia para para la abogacía. Eh, muy bien, María. Pues llevamos ya a más de una hora, o sea, que yo me parece que que vamos a tener que ir dejándolo por hoy. Eh, no sé si quieres añadir alguna cosa más o si hay abogados, abogadas que hayan visto en directo este episodio o lo vean posteriormente eh en diferido y que quieran saber más sobre todo lo que divulgas y y comunicas y bueno, todo lo que conoces sobre estas nuevas legislaciones, ¿dónde te pueden encontrar? Pues me pueden encontrar en LinkedIn, que es donde más activa me encuentro, María Sánchez Vesga. Y bueno, eh dentro de poco eh crearé una web donde ofertaré mis servicios, por lo que si están buscando algún tipo de colaboración me encuentro, vamos, más que abierta para hablar con quien se o incluso ayudar porque creo que la vida va de eso. Así que bueno, en primer lugar también daros a vosotros las gracias por esta maravillosa oportunidad que me habéis brindado.

Gracias a vos. Gracias a ti siempre por haber compartido todo tu conocimiento y y bueno, pues eh como siempre digo, eh ha sido muy agradable estar aquí y creo que hemos aprendido un montón de de derecho sanitario, digital y de toda esta nueva legislación. Eh muy oportuno por el lanzamiento de CHGPT para la salud la semana pasada. Así que bueno, espero que quien nos ha visto en directo y quien nos vea luego en diferido encuentre este contenido interesante.

Gracias a todos y nos veremos la semana que viene. No sé todavía, pero bueno, en los próximos días anunciaremos el siguiente episodio de Joado, pero vale.

Gracias a todos. Buenas tardes. Gracias, María. Gracias, María.

Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles. Puedes leer nuestra política de privacidad aquí.