Pulsa «Intro» para saltar al contenido

El grupo de trabajo de ChatGPT presentó un informe sobre la legalidad del chatbot

Como el chatbot ha sido señalado por no cumplir con normas de privacidad, el grupo de trabajo de ChatGPT de la Unión Europea presentó conclusiones preliminares sobre cómo se aplica el reglamento de la protección de datos implementada por la Comisión Europea al agente de inteligencia artificial de OpenAI. El grupo sigue indeciso sobre cuestiones como la aplicación de la legalidad y la equidad del procesamiento de la IA.

La cuestión toma relevancia teniendo en cuenta que la compañía se enfrenta a fuertes sanciones regulatorias si se confirman violaciones, por ejemplo, a la privacidad, la cual puede resultar en una multa del 4% de su facturación mundial por año. Hasta el momento, se han incrementado el número de quejas de que OpenAi viola varias normas del bloque europeo.

La Unión Europea sostiene que las compañías deben respetar el Reglamento General de Protección de Datos (RGPD), el cual se aplica cuando se recopilan y procesan datos personales. Una acción que compañías como ChatGPT realiza al recolectar sus datos de internet. El RGPD dice que cualquier entidad la cual quiera procesar datos sobre personas debe tener una base legal para hacerlo. A partir de esto, se establecen seis bases, en el caso de ChatGPT, estas se reducen a solo dos: el consentimiento por parte de sus usuarios al entregar sus datos, y el interés legítimo, el cual exige una prueba de ponderación como también que el responsable del uso de datos permita a los usuarios oponerse al tratamiento de los mismos.

El informe señala que ChatGPT necesita trabajar en «riesgos peculiares» los cuales incluyen una base legal válida para todas las etapas del procesamiento de datos personales. La cantidad de datos recopilados de las personas que pueden incluir los llamados «datos de categoría especial» por el RGPD los cuales incluyen información de salud, sexualidad, opiniones políticas, etc.

Quizás también te interese:  Comienza primera audiencia del caso de México contra Ecuador ante la CIJ en la Haya

Por su parte, el grupo de trabajo afirma que el hecho de que los «datos de categoría especial» sean públicos no quiere decir que sean «manifiestamente» públicos. Esto quiere decir que habría una excepción al RGPD ya que una empresa puede tener, o no, la intención explicita de hacer accesibles los datos personales en cuestión al público en general.

En otro orden de cosas, el grupo de trabajo afirma que no se le puede transferir al usuario el riesgo de privacidad. «OpenAI sigue siendo responsable del cumplimiento del RGPD y no debería argumentar que la introducción de ciertos datos personales estaba prohibida en primer lugar», señala el informe. Por otro lado, se reafirma también que la «particular importancia» de informar a los usuarios que sus aportes pueden usarse con fines de capacitación; como también que OpenAI proporcione a los usuarios una «referencia explícita» de que el texto generado «puede estar sesgado o inventado».

Otro de los puntos es el derecho de rectificación de datos, el informe lo describe como «imperativo» el cual las personas puedan ejercer fácilmente sus derechos. Sin embargo, ChatGPT no permite arreglar la información personal incorrecta generada sobre ellos, sino que solo ofrece bloquear la generación.

NotiPress/Axel Olivares