La Comisión Especial de Innovación, Ciencia y Tecnología de la Cámara de Representantes está analizando el proyecto por el cual se regula la Generación y Difusión de Contenidos Engañosos durante la campaña electoral.

Recibimos con mucho gusto a Raúl Echeberría, Representante de la Asociación Latinoamericana de Internet (ALAI).

ECHEBERRÍA (Raúl). Muchas gracias por darme la oportunidad de estar aquí nuevamente y de participar en la discusión de este proyecto, que tiene que ver con un tema relevante como lo es el cuidado de la democracia y de los procesos electorales. Por supuesto que desde la Asociación Latinoamericana de Internet compartimos el espíritu de esta iniciativa tendiente a reducir el impacto de la desinformación en el debate público y saludamos que se tenga esta conversación en el Parlamento de Uruguay. ALAI y sus asociados reconocen que la protección de la integridad electoral y de la confianza pública es una responsabilidad compartida y un bien común. Por lo tanto, la protección de las elecciones y de los procesos electorales requiere una discusión, un compromiso multiactoral y esfuerzos educativos activos para apoyar a una ciudadanía informada. Estamos, claramente, ante un tema complejo -en relación al punto específico que nos convoca hoy- y muy sensible por el impacto no deseado que puede tener la regulación de contenidos digitales en el diálogo democrático y en el derecho a la libertad de expresión que son, justamente, los elementos que se intenta proteger y fortalecer. Las plataformas digitales toman muchas medidas para reducir el impacto de la desinformación. En estos últimos años se han logrado resultados muy importantes. Estos son aspectos en los cuales estaría encantado en profundizar; desde ya quedo a su disposición y me ofrezco para volver a conversar sobre ese tema en específico, que nos requerirá un poco más de tiempo. Lo cierto es que me encantaría compartir con ustedes cuáles son las acciones y las medidas que toman las empresas asociadas de ALAI en este sentido. Entre otras acciones -respecto a alguna hemos conversando aquí muy generalmente-, se llevan adelante actividades de cercana colaboración y cooperación con una buena parte de las autoridades electorales de la región, algunas veces a través de acuerdos formales y otras, de manera informal. En materia de inteligencia artificial, las empresas de la industria ya se encuentran implementando herramientas y sistemas para brindar transparencia respecto a los contenidos generados con inteligencia artificial, algo importante a la luz de los desafíos que están planteados. Pensamos que las plataformas digitales deben ser protegidas frente a cualquier responsabilidad por los contenidos generados por terceros en los cuales no tenga intervención específica. Además, no deben estar sujetas a normas extrajudiciales sobre cancelación o remoción de contenidos que no ofrezcan suficiente protección para la libertad de expresión. Específicamente hablando del proyecto en cuestión, quisiéramos compartir las siguientes preocupaciones. Primero, en esta iniciativa se utilizan varias expresiones que nos parecen ambiguas, que pueden dar lugar a múltiples interpretaciones y que, sin duda, generarán complejidades a la hora de su implementación. Algunos ejemplos son expresiones como: «materialmente engañosos», «propósito de causar daño» o «desinformación notoria». Segundo, es un desafío técnico determinar si un contenido ha sido creado artificialmente o no. La industria tecnológica está trabajando para llegar a estándares que permitan abordar soluciones en este sentido. El problema es que esos estándares aún no están desarrollados en su totalidad. En este sentido, las entidades públicas en Uruguay pueden encontrarse con el obstáculo de llegar a certezas técnicas para emitir juicios relativos a los contenidos y, por tanto, generar inconvenientes en la implementación del proyecto, si se aprobara. Tercero, existe un desafío en cuanto a cómo la autoridad a cargo determinará la intencionalidad detrás del contenido de causar daño a la reputación de los candidatos o provocar desinformación. Las limitaciones a la expresión presentan un severo desafío -como ya lo hemos mencionado-, más aún en contextos electorales. Por eso, recomendamos observar los estándares internacionales sobre libertad de expresión. Además, el proyecto penaliza la generación del contenido. Hay que tener en cuenta que el contenido puede ser generado de múltiples formas: por personas, por herramientas o por plataformas. En consecuencia, debería quedar mucho más claro que las herramientas tecnológicas y las plataformas no están incluidas en la penalización de las acciones sancionadas. Si bien hay una aparente intención de exoneración en el último párrafo -como lo veremos a continuación-, también en este punto vemos problemas de falta de claridad. El término «difunda» es de una amplitud muy considerable y potencialmente excesiva. El artículo podría terminar criminalizando comportamientos que están muy extendidos en la sociedad. Lamentablemente, es muy normal que las personas compartan de buena fe, en sus redes o a través de mensajerías, contenidos en los que confían, sin la debida verificación. De acuerdo a la redacción propuesta, por este tipo de difusión -que no tiene malas intenciones y de la cual las personas públicas claramente no están exentas- serían pasibles de penalización. En consecuencia, podríamos llegar a tener una norma -en caso de ser aprobado el proyectoque penalice el comportamiento de una parte muy importante de la población.

Cuando se exceptúan los casos en que se identifica claramente que el contenido ha sido generado por medios artificiales, no se especifica quién debería aclararlo. ¿Debería ser quien genera el contenido, quien lo difunde, la herramienta utilizada o quién? Por otra parte, no hay garantías técnicas -creo que otros colegas de la industria ya han marcado este punto en esta Comisión-, al menos hasta ahora, de que marcas incluidas en algún momento del proceso de circulación del contenido no puedan ser retiradas posteriormente por otras personas u herramientas, tanto de manera intencional como de forma inadvertida. Si bien el espíritu del último párrafo es claro y compartible en cuanto a limitar las responsabilidades de las plataformas digitales -como dije anteriormente, esto nos parece fundamental-, el texto puede terminar teniendo el efecto exactamente opuesto al buscado. El texto incluido luego de la palabra «similares» -está en el último párrafo- solo agrega confusión. Entendemos que tiene que quedar más claramente establecido que las plataformas deben quedar exceptuadas. En el último párrafo también se menciona la situación de que la plataforma sea notificada de diversas situaciones de duda sobre la legitimidad o de aparente falsedad, pero no se aclara quién notificaría, de qué forma ni si existiría un debido proceso que dé garantías a todas las partes. Como decía al principio, entendemos que las plataformas no pueden ser sometidas a normas extrajudiciales que indiquen remoción de contenido. De igual forma, se incluye como una justificación para la acción sobre los contenidos el hecho de que existan dudas sobre su autenticidad. Al igual que en el punto anterior, aquí tampoco se menciona de qué tipo de dudas se trata ni quién sería el que tendría esas dudas. Además, la duda de la autenticidad no parece razón suficiente para justificar acciones de remoción de contenidos. La justificación de ese tipo de acciones debería ser la necesaria certeza de que no son legítimos y no la duda sobre su legitimidad. En síntesis -debido al corto tiempo de que disponemos y a no queremos abusar del tiempo de los legisladores y de las legisladoras-, compartimos el objetivo de trabajar para proteger la integridad de los procesos electorales y de los sistemas democráticos en general. Hay mucho para conseguir en relación a estos objetivos a través de la colaboración y de la cooperación de todos los actores involucrados. Reitero la propuesta de volver a esta Comisión con el propósito específico de enumerar, contar y compartir con ustedes las acciones que ya se toman a través de las plataformas y en cooperación con las autoridades electorales para lograr esos objetivos. En el caso concreto de este proyecto, ofrecemos nuestra continua colaboración. Pensamos que el texto de la iniciativa a consideración aún presenta muchas dudas y también, muchas preocupaciones, que ya hemos enumerado. Nos parece que no debería avanzar en su forma actual. Esperamos que tanto nuestros comentarios como los de otras organizaciones y actores que están compareciendo ante esta Comisión contribuyan a que el proyecto continúe evolucionando de forma gradual, atendiendo alguna de estas preocupaciones. Seguramente, en etapas posteriores -a medida que el texto vaya avanzando- estaremos en condiciones de hacer, incluso, propuestas más específicas.

Un riesgo real

GOÑI REYES (Rodrigo). Quiero agradecer la comparencia de ALAI, organización que permanentemente colabora con esta Comisión y el Parlamento. Necesito dejar algunas constancias para el tiempo que viene, para el proceso legislativo y para las propuestas que ha hecho ALAI con su disposición para colaborar. Estamos hablando de un riesgo que ha sido admitido por todos los parlamentos del mundo, en una forma clara: desde los europeos hasta los congresos de Estados Unidos y Canadá, pasando por todos los de los países latinoamericanos y del resto del mundo. Se ha determinado que existe un riesgo real y concreto de manipulación, falsificación y afectación de la transparencia electoral por el desarrollo de la inteligencia artificial. Como los mismos desarrolladores expresan, ese riesgo no solamente es exponencial, sino también descontrolado; esto lo han reconocido en todos los congresos los principales líderes tecnológicos. Ante esto, todos los parlamentos del mundo que tienen elecciones en el 2024 han hecho propuestas legislativas para tratar, de alguna forma, de minimizar ese riesgo. Nosotros, también; no hacerlo implicaría una gravísima irresponsabilidad. Quiero dejar constancia en la versión taquigráfica de que desde el mes de enero -momento en que, en general, surgió la corriente de los parlamentos de proponer proyectos de ley- hemos tratado de compartir textos y de llegar a la presentación legislativa con la mayor cantidad de observaciones y comentarios posibles; así lo hemos hecho tanto con ALAI como con la CUTI y todos los actores que han estado colaborando siempre con este Parlamento. Esta es una constancia que quiero dejar porque fue así como sucedió y quiero descartar que acá estamos planteando un proyecto sin consulta. Más allá de que fueron consultas informales, se realizaron durante tres meses. Incluso, todas las bancadas parlamentarias tuvieron la oportunidad de analizar si lo acompañaban con su firma, si querían hacer alguna reforma, etcétera. En esta línea de buscar un proyecto que pueda ser mejorado desde el primer punto hasta el último, hay conceptos y términos abiertos porque buscamos, justamente, que sean precisados por las delegaciones que, de alguna forma, puedan verse involucradas. De hecho, así pasó en la primera reunión. Hoy, ALAI también hace muchos cuestionamientos u observaciones. A modo de ejemplo menciono la referencia a cuando sea notificado de la falsedad, ya sea la plataforma o quien esté difundiendo esos contenidos falsos. Esa es una terminología que ya se está aplicando. Yo debo haber visto unos cuarenta proyectos de ley que planteaban una forma de advertir a quien estaba difundiendo para que, a partir de ahí, fuera un difusor de mala fe si no tomaba alguna medida para verificar la autenticidad. Obviamente, estas disposiciones están abiertas a cerrarlas o a abrirlas. Tengamos en cuenta que estamos ante una situación realmente riesgosa para la base del sistema electoral, ya que se avecinan las elecciones.

Reitero: si el 24 de octubre aparece en forma impune una falsificación masiva de contenidos sobre mensajes o hechos de un candidato de este país, este Parlamento debió haber intentado alguna fórmula para que eso no sucediera o para minimizar los riesgos. Por eso propusimos este proyecto. Creo que somos todos responsables. Todos los convocados a esta Comisión fueron invitados para buscar una fórmula legal que minimice los riesgos existentes, que nadie discute. Hemos dejado abiertas estas disposiciones procurando la opinión de quienes estén en condiciones de contribuir y hacer la mejor precisión posible. Por supuesto, acá también hay riesgos. Ahora bien, hay un riesgo que yo descarto y que quiero dejar establecido en la versión taquigráfica. Acá no hay riesgo de afectar la libertad de expresión. ¿Por qué? Porque acá estamos tratando de minimizar y sancionar la falsificación. La falsificación ya es un delito hoy. El falsificador ya es un delincuente hoy; lo será hoy, mañana y siempre, mucho más si falsifica algo para poner en riesgo la elección nacional, que es la base de la democracia. Entonces, de ninguna manera entendemos que un proyecto de esta naturaleza pueda limitar la libertad de expresión; no discutimos en las comisiones, pero estoy dispuesto a hacerlo donde sea. El objetivo preciso es sancionar, pero, sobre todo, prevenir la falsificación que, reitero, en la legislación vigente desde hace mucho tiempo está sancionada penalmente. La realidad es que, ahora, todos los parlamentos del mundo, ante la facilidad y la sofisticación de las herramientas para la falsificación, y más en una cuestión tan elemental para la convivencia democrática como son las elecciones, buscan prevenirla. Agradezco mucho que ALAI pueda aportar, como lo ha hecho otras veces, por ejemplo, en la iniciativa anterior. Acá estuvimos a punto de votar un proyecto de protección de entornos digitales. ALAI pidió que se retirara y ofreció determinadas fórmulas para corregir algunas disposiciones. Esta Comisión tomó en cuenta las que se podía, que no fueron unánimemente aceptadas, sino que fueron tomadas solo por algunos. Cuando ALAI ha venido con propuestas fundamentadas, esta Comisión y, en particular, este legislador, las ha tenido muy presentes, al punto de actuar en consecuencia en la legislación recientemente aprobada.

Cooperación de las plataformas

OLMOS (Gustavo). Agradezco la participación y los aportes del señor Echeberría. Yo quiero hacer una pregunta muy puntual. Usted hablaba sobre la cooperación que hacen las plataformas con las autoridades electorales. Quiero saber si eso se está llevando a cabo en Uruguay y, en caso de que sea así, en qué términos se está desarrollando.

Mecanismos de software

LORENZONI HERRERA (Miguel). Agradezco la intervención de Echeberría. Quiero hacerle una consulta concreta respecto a cuáles son los mecanismos de software con que cuenta Uruguay para poder detectar este tipo de contenido falso. Estuve averiguando y asesorándome sobre este tema. Algunas personas me plantearon que existe algún tipo de software que tiene que ver con el análisis de flujo de píxeles y otros, con el tema de la gesticulación de los políticos y el contraste de las imágenes que se generan a través de inteligencia artificial. Sin embargo, hay software -que no son los de «crea test» que, de repente, podríamos encontrar en Google- mucho más sofisticados y que tienen mucho más complejidad al momento de poder detectar su falsedad. Entonces, quisiera saber cómo está posicionado, hoy, Uruguay respecto a América Latina. ¿Hay algún país que esté a la vanguardia en este tema dentro de Latinoamérica?

PRESIDENTE Cal. Me permito decir que coincido con el planteo que usted hacía recién con respecto a algunos términos que se utilizan y que pueden ser un tanto riesgosos. Si bien soy firmante del proyecto, esa es una de las cosas que casi todas las delegaciones nos hicieron ver. Creo que sería muy bueno que ustedes nos pudieran enviar por escrito las sugerencias específicas de las correcciones al texto del proyecto.

ECHEBERRÍA (Raúl). Trataré de responder todas las consultas juntas. Primero que nada, vuelvo a agradecer la posibilidad de participar de esta discusión. También agradezco al diputado Goñi por las oportunidades de presentar comentarios en las fases previas, como él mismo indicaba. La complejidad del tema está demostrada, justamente, por las evoluciones que tuvo el texto y las interacciones; creo que no ha sido una tarea fácil. Eso muestra que este es un tema complejo. Nosotros compartimos -me parece que lo dije al inicio- la preocupación sobre los impactos que tiene la desinformación y la evolución tecnológica en la integridad de los sistemas electorales y en la libertad de expresión. Por lo tanto, no desconocemos los desafíos. Compartimos estas preocupaciones y nos comprometemos a colaborar en la búsqueda de soluciones. Es cierto que 2024 es un año de elecciones en todo el mundo. También tenemos que notar que pasó una tercera parte del año y que ya ha habido varias elecciones. Esto se suma a las elecciones que tuvimos en la región en el año 2023. El bajísimo número de incidentes que hemos visto y la baja incidencia en los procesos electorales se da, precisamente, por el trabajo que hacen las empresas en minimizar y reducir el efecto de estas prácticas en las plataformas. Así que no es que las empresas estén quietas, esperando que aparezca alguna solución mágica o una regulación nueva. Los índices de éxito en la detección anticipada o inmediata de los contenidos falsos han aumentado de forma tremenda. Con respecto a las herramientas de inteligencia artificial que se utilizan, debo decir -respondiendo al diputado Lorenzoni- que no hay una sola estrategia técnica de detección de contenidos falsos o manipulados, sino que hay muchas. Es más: cada empresa tiene distintas herramientas. Lo cierto es que el índice de éxito en la identificación de contenidos de este tipo está por arriba del 95 % o 96 %, dependiendo de las plataformas. En la mayor parte de los casos, los contenidos se remueven antes de que alguien los vea, es decir, antes de que una sola persona los haya visto. Por supuesto que el otro pequeño porcentaje que queda es el que siempre hace ruido, porque es el que se ve y es motivo de la discusión pública. O sea que sí hay mucha evolución. Espero que el resto del año 2024 transcurra de la misma manera que lo viene haciendo, con un bajo índice de problemas por todo el trabajo que se hace. Tenemos convenios de distinto tipo, a veces con autoridades electorales, a veces a fin de explicar las herramientas que ofrecen distintas plataformas, de financiamiento, de transparencia sobre los contenidos, sobre las acciones que se toman. Incluso, muchas de las plataformas, dependiendo del modelo de negocios que tengan, no comercializan propaganda electoral. Otras, las que sí lo hacen, presentan reportes, inclusive, trazabilidad sobre cuál es el origen, quién ha pagado una publicidad, cuántas veces se ha visto, dónde, información que es muy útil, dependiendo de las reglas o leyes que existan en cada país que regulen el proceso electoral, claramente. En Uruguay no tenemos acuerdos específicos con la Corte Electoral, pero siempre estamos a disposición para ayudarlos en lo que sea. En relación a las propuestas concretas, encantados de seguir en ese camino y estamos convencidos de que las puertas seguirán abiertas para nuestras contribuciones. Creemos que todavía le hace falta un poco de evolución al texto para entrar en propuestas más específicas, cambiar una palabra o agregar una oración, cosas de ese tipo, y creo que están expresadas las preocupaciones en los puntos que ya marqué anteriormente.