Si bien la mayoría del mundo está encantada con ChatGPT, hay algunos que están empezando a cuestionarse so utilidad, moralidad o uso de datos. Por ejemplo, Italia acaba de ordenar el bloqueo de la inteligencia artificial conversacional en ese país.
Por medio de un comunicado de prensa, la Organización de Protección de datos de Italia ordenó a OpenAI detener de inmediato el procesamiento de los datos de las personas en el país europeo. El regulador citó preocupaciones de que el fabricante de ChatGPT haya violado el Reglamento General de Protección de Datos (GDPR, por sus siglas en inglés) de la Unión Europea, así como la falta de un sistema para evitar que los menores accedan a la tecnología. OpenAI tenía 20 días para responder a la orden, respaldada por la amenaza de sanciones significativas si no cumplía. No obstante, la compañía no se tardó mucho en acatar la orden, por lo que en este momento ya no es posible acceder al chat desde ese país.
El GDPR se aplica siempre que se procesen datos personales de usuarios de la Unión Europea. Se ha demostrado que el modelo de lenguaje de OpenAI produce información que puede llegar a ser falsa sobre personas, lo que plantea preocupaciones, ya que la regulación proporciona a los europeos un conjunto de derechos sobre sus datos, los cuales se podrían romper vía difamación. Por otra parte, la forma del procesamiento de los datos de los europeos también es una cuestión, la cual no necesariamente estaba cumpliendo ChatGPT, lo que podría hacer vulnerable a brechas de información o el registro de menores de 13 años. El GDPR plantea varias posibilidades, desde el consentimiento hasta el interés público, pero la escala de procesamiento para entrenar estos grandes modelos de lenguaje las pone en entre dicho. En resumen, la escala de la información requerida por ChatGPT para funcionar, y la manera en que esa información es utilizada y procesada, es lo que impulsó al país a tomar esta decisión.
“El Organismo observa la falta de información a los usuarios y a todas las partes interesadas cuyos datos son recopilados por OpenAI pero, sobre todo, la ausencia de una base legal que justifique la recopilación y el almacenamiento masivos de datos personales, con el propósito de 'capacitar' los algoritmos subyacentes al funcionamiento de la plataforma”, escribió el organismo de protección italiano en su comunicado. “Como lo demuestran las revisiones realizadas, la información proporcionada por ChatGPT no siempre corresponde a los datos reales, lo que determina un tratamiento inexacto de los datos personales”.
Lo curioso ahora es que esta postura podría, sin querer, obligar la desaparición de todas las inteligencias artificiales conversacionales en Italia, debido a que todas operan más o menos bajo los mismos principios. Así pues, o las empresas que trabajan en AI empiezan a trabajar en maneras diferentes de gestionar datos o Italia podría empezar a quedar muy rezagado frente al reste del mundo.
¿Qué te parece esta noticia? ¡Déjanos tus comentarios!
Deja tu comentario