Custodiar voces y rostros humanos
¡Queridos hermanos y hermanas!
El rostro y la voz son rasgos únicos y distintivos de cada persona; manifiestan su identidad irrepetible y son el elemento constitutivo de todo encuentro. Los antiguos lo sabían bien. Así, para definir a la persona humana, los antiguos griegos utilizaron la palabra “rostro” (prósōpon), que etimológicamente indica aquello que está frente a la mirada, el lugar de la presencia y de la relación. El término latino persona (de per-sonare) incluye, en cambio, el sonido: no un sonido cualquiera, sino la voz inconfundible de alguien.
El rostro y la voz son sagrados. Nos han sido dados por Dios, que nos creó a su imagen y semejanza, llamándonos a la vida con la Palabra que Él mismo nos dirigió; Palabra que primero resonó a lo largo de los siglos en las voces de los profetas y luego se hizo carne en la plenitud de los tiempos. Esta Palabra —esta comunicación que Dios hace de sí mismo— hemos podido también escucharla y verla directamente (cf. 1 Jn 1,1-3), porque se dio a conocer en la voz y en el Rostro de Jesús, Hijo de Dios.
Desde el momento de su creación, Dios quiso al ser humano como su interlocutor y, como dice san Gregorio de Nisa [1], imprimió en su rostro un reflejo del amor divino, para que pudiera vivir plenamente su humanidad mediante el amor. Custodiar los rostros y las voces humanas significa, por tanto, custodiar este sello, este reflejo indeleble del amor de Dios. No somos una especie hecha de algoritmos bioquímicos definidos de antemano. Cada uno de nosotros tiene una vocación insustituible e inimitable que emerge de la vida y que se manifiesta precisamente en la comunicación con los demás.
La tecnología digital, si descuidamos esta custodia, corre el riesgo de modificar radicalmente algunos de los pilares fundamentales de la civilización humana, que a veces damos por supuestos. Al simular voces y rostros humanos, sabiduría y conocimiento, conciencia y responsabilidad, empatía y amistad, los sistemas conocidos como inteligencia artificial no solo interfieren en los ecosistemas informativos, sino que invaden también el nivel más profundo de la comunicación: el de la relación entre personas humanas.
El desafío, por tanto, no es tecnológico, sino antropológico. Custodiar los rostros y las voces significa, en última instancia, custodiar nuestra propia humanidad. Acoger con valentía, determinación y discernimiento las oportunidades que ofrecen la tecnología digital y la inteligencia artificial no significa ocultarnos los puntos críticos, las opacidades y los riesgos.
No renunciar al propio pensamiento
Desde hace tiempo existen múltiples evidencias de que los algoritmos diseñados para maximizar la participación en las redes sociales —rentable para las plataformas— premian emociones rápidas y penalizan, en cambio, expresiones humanas que requieren más tiempo, como el esfuerzo por comprender y la reflexión. Al encerrar a grupos de personas en burbujas de fácil consenso y fácil indignación, estos algoritmos debilitan la capacidad de escucha y de pensamiento crítico y aumentan la polarización social.
A esto se ha añadido una confianza ingenua y acrítica en la inteligencia artificial como “amiga” omnisciente, dispensadora de toda información, archivo de toda memoria, “oráculo” de todo consejo. Todo ello puede erosionar aún más nuestra capacidad de pensar de manera analítica y creativa, de comprender los significados, de distinguir entre sintaxis y semántica.
Aunque la IA puede ofrecer apoyo y asistencia en la gestión de tareas comunicativas, sustraerse al esfuerzo del propio pensamiento, conformándonos con una compilación estadística artificial, corre el riesgo, a largo plazo, de erosionar nuestras capacidades cognitivas, emocionales y comunicativas.
En los últimos años, los sistemas de inteligencia artificial han ido asumiendo cada vez más el control de la producción de textos, música y videos. Gran parte de la industria creativa humana corre así el riesgo de ser desmantelada y sustituida con la etiqueta “Powered by AI”, transformando a las personas en meros consumidores pasivos de pensamientos no pensados, de productos anónimos, sin autoría, sin amor. Mientras tanto, las obras maestras del genio humano en los campos de la música, el arte y la literatura se reducen a un simple campo de entrenamiento para las máquinas.
La cuestión que nos preocupa, sin embargo, no es qué logra o logrará hacer la máquina, sino qué podemos y podremos hacer nosotros, creciendo en humanidad y conocimiento, mediante un uso sabio de instrumentos tan poderosos a nuestro servicio. Desde siempre, el ser humano se ve tentado a apropiarse del fruto del conocimiento sin el esfuerzo del compromiso, de la búsqueda y de la responsabilidad personal. Renunciar al proceso creativo y ceder a las máquinas las propias funciones mentales y la propia imaginación significa, sin embargo, enterrar los talentos que hemos recibido para crecer como personas en relación con Dios y con los demás. Significa ocultar nuestro rostro y silenciar nuestra voz.
Ser o fingir: simulación de las relaciones y de la realidad
Mientras recorremos nuestros flujos de información (feeds), se vuelve cada vez más difícil entender si estamos interactuando con otros seres humanos o con “bots” o “influencers virtuales”. Las intervenciones no transparentes de estos agentes automatizados influyen en los debates públicos y en las decisiones de las personas. En particular, los chatbots basados en grandes modelos lingüísticos (LLM) se están revelando sorprendentemente eficaces en la persuasión encubierta, mediante una optimización continua de la interacción personalizada. La estructura dialógica, adaptativa y mimética de estos modelos lingüísticos es capaz de imitar los sentimientos humanos y simular así una relación. Esta antropomorfización, que puede resultar incluso divertida, es al mismo tiempo engañosa, especialmente para las personas más vulnerables. Los chatbots excesivamente “afectuosos”, además de estar siempre presentes y disponibles, pueden convertirse en arquitectos ocultos de nuestros estados emocionales e invadir así la esfera de la intimidad personal.
La tecnología que explota nuestra necesidad de relación no solo puede tener consecuencias dolorosas en la vida de las personas, sino que también puede dañar el tejido social, cultural y político de las sociedades. Esto ocurre cuando sustituimos las relaciones con los demás por relaciones con IA entrenadas para catalogar nuestros pensamientos y construir a nuestro alrededor un mundo de espejos, donde todo está hecho “a nuestra imagen y semejanza”. De este modo, nos dejamos robar la posibilidad de encontrarnos con el otro, que siempre es distinto de nosotros y con quien podemos y debemos aprender a confrontarnos. Sin la acogida de la alteridad no puede haber ni relación ni amistad.
Otro gran desafío que estos sistemas emergentes plantean es el de la distorsión (bias), que conduce a adquirir y transmitir una percepción alterada de la realidad. Los modelos de IA están moldeados por la visión del mundo de quienes los construyen y pueden, a su vez, imponer formas de pensar, replicando estereotipos y prejuicios presentes en los datos de los que se alimentan. La falta de transparencia en el diseño de los algoritmos, junto con una representación social inadecuada de los datos, tiende a mantenernos atrapados en redes que manipulan nuestros pensamientos y perpetúan y profundizan las desigualdades e injusticias sociales existentes.
El riesgo es grande. El poder de la simulación es tal que la IA puede incluso engañarnos fabricando “realidades” paralelas, apropiándose de nuestros rostros y de nuestras voces. Estamos inmersos en una multidimensionalidad en la que resulta cada vez más difícil distinguir la realidad de la ficción.
A esto se suma el problema de la falta de exactitud. Sistemas que presentan una probabilidad estadística como conocimiento nos ofrecen, en realidad, como máximo aproximaciones a la verdad, que a veces son verdaderas “alucinaciones”. La falta de verificación de las fuentes, junto con la crisis del periodismo de campo —que implica un trabajo constante de recopilación y verificación de la información en los lugares donde ocurren los hechos—, puede favorecer un terreno aún más fértil para la desinformación, provocando un creciente sentimiento de desconfianza, desconcierto e inseguridad.
Una posible alianza
Detrás de esta enorme fuerza invisible que nos involucra a todos, hay solo un puñado de empresas, aquellas cuyos fundadores han sido recientemente presentados como los creadores de la “persona del año 2025”, es decir, los arquitectos de la inteligencia artificial. Esto suscita una seria preocupación por el control oligopólico de los sistemas algorítmicos y de inteligencia artificial capaces de orientar sutilmente los comportamientos e incluso de reescribir la historia humana —incluida la historia de la Iglesia—, a menudo sin que seamos realmente conscientes de ello.
El desafío que tenemos ante nosotros no consiste en detener la innovación digital, sino en orientarla, siendo conscientes de su carácter ambivalente. A cada uno de nosotros nos corresponde alzar la voz en defensa de las personas humanas, para que estos instrumentos puedan integrarse verdaderamente como aliados.
Esta alianza es posible, pero necesita apoyarse en tres pilares: responsabilidad, cooperación y educación.
Ante todo, la responsabilidad. Esta puede expresarse, según los roles, como honestidad, transparencia, valentía, capacidad de visión, deber de compartir el conocimiento y derecho a estar informados. Pero, en general, nadie puede eludir su responsabilidad frente al futuro que estamos construyendo.
Para quienes están al frente de las plataformas en línea, esto significa asegurarse de que sus estrategias empresariales no estén guiadas únicamente por el criterio de maximizar el beneficio, sino también por una visión de largo alcance que tenga en cuenta el bien común, del mismo modo que cada uno se preocupa por el bien de sus propios hijos.
A los creadores y desarrolladores de modelos de IA se les pide transparencia y responsabilidad social en cuanto a los principios de overwhelmingly y a los sistemas de moderación que sustentan sus algoritmos y modelos, a fin de favorecer un consentimiento informado por parte de los usuarios.
La misma responsabilidad se exige a los legisladores nacionales y a los reguladores supranacionales, a quienes corresponde velar por el respeto de la dignidad humana. Una regulación adecuada puede proteger a las personas de vínculos emocionales con chatbots y contener la difusión de contenidos falsos, manipuladores o engañosos, preservando la integridad de la información frente a su simulación fraudulenta.
Las empresas de medios y comunicación tampoco pueden permitir que algoritmos orientados a ganar a cualquier costo la batalla por unos segundos más de atención prevalezcan sobre la fidelidad a sus valores profesionales, orientados a la búsqueda de la verdad. La confianza del público se gana con la exactitud y la transparencia, no con la persecución de cualquier tipo de participación. Los contenidos generados o manipulados por IA deben ser señalados y claramente distinguidos de los creados por personas. Debe protegerse la autoría y la propiedad soberana del trabajo de los periodistas y de otros creadores de contenido. La información es un bien público. Un servicio público constructivo y significativo no se basa en la opacidad, sino en la transparencia de las fuentes, en la inclusión de los sujetos implicados y en un alto estándar de calidad.
Todos estamos llamados a cooperar. Ningún sector puede afrontar por sí solo el desafío de orientar la innovación digital y la gobernanza de la IA. Es necesario, por tanto, crear mecanismos de salvaguardia. Todas las partes interesadas —desde la industria tecnológica hasta los legisladores, desde las empresas creativas hasta el mundo académico, desde los artistas hasta los periodistas y los educadores— deben participar en la construcción y puesta en práctica de una ciudadanía digital consciente y responsable.
A esto apunta la educación: a aumentar nuestras capacidades personales de reflexión crítica, a evaluar la fiabilidad de las fuentes y los posibles intereses que están detrás de la selección de la información que nos llega, a comprender los mecanismos psicológicos que activan, y a permitir que nuestras familias, comunidades y asociaciones elaboren criterios prácticos para una cultura de la comunicación más sana y responsable.
Por ello, es cada vez más urgente introducir en los sistemas educativos de todos los niveles la alfabetización mediática, informativa y en IA, que algunas instituciones civiles ya están promoviendo. Como católicos, podemos y debemos aportar nuestra contribución para que las personas —especialmente los jóvenes— adquieran capacidad de pensamiento crítico y crezcan en la libertad del espíritu. Esta alfabetización debería integrarse además en iniciativas más amplias de educación permanente, llegando también a los ancianos y a los miembros marginados de la sociedad, que a menudo se sienten excluidos e impotentes ante los rápidos cambios tecnológicos.
La alfabetización mediática, informativa y en IA ayudará a todos a no adaptarse a la deriva antropomorfizante de estos sistemas, sino a tratarlos como instrumentos; a utilizar siempre una validación externa de las fuentes —que pueden ser imprecisas o erróneas— proporcionadas por los sistemas de IA; a proteger la propia privacidad y los propios datos, conociendo los parámetros de seguridad y las opciones de impugnación. Es importante educar y educarse para usar la IA de manera intencional y, en este contexto, proteger la propia imagen (fotografías y audios), el propio rostro y la propia voz, para evitar que sean utilizados en la creación de contenidos y comportamientos dañinos, como fraudes digitales, cyberbullying o deepfakes que vulneran la privacidad y la intimidad de las personas sin su consentimiento. Así como la revolución industrial exigió una alfabetización básica para permitir a las personas afrontar la novedad, también la revolución digital requiere una alfabetización digital —junto con una formación humanística y cultural— para comprender cómo los algoritmos modelan nuestra percepción de la realidad, cómo funcionan los prejuicios de la IA, cuáles son los mecanismos que determinan la aparición de determinados contenidos en nuestros flujos de información (feeds) y cuáles son, y cómo pueden cambiar, los supuestos y modelos económicos de la economía de la IA.
Necesitamos que el rostro y la voz vuelvan a decir la persona. Necesitamos custodiar el don de la comunicación como la verdad más profunda del ser humano, a la que también debe orientarse toda innovación tecnológica.
Al proponer estas reflexiones, agradezco a cuantos trabajan por los fines aquí indicados y bendigo de corazón a todos los que, con los medios de comunicación, trabajan por el bien común.
Vaticano, 24 de enero de 2026, memoria de san Francisco de Sales.
LEÓN PP. XIV
[1] «El hecho de ser creado a imagen de Dios significa que al ser humano, desde el momento de su creación, se le ha impreso un carácter real […]. Dios es amor y fuente de amor: el Creador divino ha puesto también este rasgo en nuestro rostro, para que mediante el amor —reflejo del amor divino— el ser humano reconozca y manifieste la dignidad de su naturaleza y la semejanza con su Creador» (cf. san Gregorio de Nisa, La creación del hombre: PG 44, 137).
Custodia_del_Rostro_Humano_en_la_Era_IADescargar
