Cómo evitar que sus datos sean utilizados para entrenar a la IA

0
179
Adobe aprovecha los archivos almacenados en Creative Cloud para entrenar su propio algoritmo de aprendizaje automático.

Las disputas en torno a la recopilación de datos para entrenar a la inteligencia artificial ha marcado la pauta en torno a la implementación de “procesos de exclusión”

NotiPress.- Gran parte de las empresas desarrolladoras de inteligencia artificial recopilan datos para entrenar sus modelos sin tomar en cuenta las leyes de derechos de autor o incluso políticas de privacidad, pues los grandes modelos de lenguaje se alimentan de inmensas cantidades de información en la web proveniente de miles de sitios. Estos, usualmente, otorgan a las compañías de IA el acceso a la información de los usuarios sin notificar a éstos sobre los métodos de recopilación de la información.

Ello genera consecuencias como las miles de demandas relacionadas con las prácticas poco transparentes de las grandes compañías tecnológicas en torno a la recopilación de datos. Niloofar Mireshgallah, investigadora de privacidad de la IA en la Univesidad de Washington, afirma que las empresas suelen complicar los procesos para que las personas no soliciten que sus datos no sean utilizados para entrenar modelos de IA.

Lo anterior se hace principalmente con la inclusión de un permiso de aceptación de datos de manera predeterminada en las políticas de privacidad. Quienes no quieran que su información sea utilizada, deben hacer uso de las herramientas de exclusión voluntaria.

No todas las empresas ofrecen soluciones o mecanismos de exclusión voluntaria que permitan a los usuarios decidir si su información será utilizada para entrenar a la IA o no. Pese a ello, algunas plataformas ya implementan procesos para ofrecer a las personas mayor control sobre su información y cómo es utilizada.

Aunque son escasas, algunas empresas no le permiten a los modelos de IA utilizar los datos de sus usuarios y, por tanto, los datos no están comprometidos. Por otra parte, la mayor parte de las exclusiones voluntarias competen a los datos de texto, sin embargo, existen servicios como Spawing, que permiten a los usuarios revisar si sus imágenes han sido recopiladas por modelos de IA e inhabilitar los datos.

Wired enlistó algunas de las compañías que actualmente cuentan con proceso de exclusión voluntaria, lo cual brinda información sobre cómo evitar que modelos de IA recopilen datos, al menos cuando las plataformas brindan los mecanismos para hacer esto. Sin embargo, esto no protege los datos publicados anteriormente, sino lo que se compartirá en un futuro.

Así, Adobe aprovecha los archivos almacenados en Creative Cloud para entrenar su propio algoritmo de aprendizaje automático; no obstante, esto no aplica a los archivos guardados únicamente en dispositivos. Por otra parte, la empresa permite a los usuarios desactivar el análisis de contenido en la nube, con lo cual se prohíbe que los datos se utilicen para entrenar a la IA. Para conseguir esto se debe apagar la selección “Análisis de contenido”, que se encuentra en el panel de configuración de seguridad.

De igual forma, Amazon Web Services guarda la información de sus clientes para optimizar sus modelos de lenguaje y también cuenta con un proceso de exclusión voluntario. Sin embargo, Wired califica éste como uno de los procesos más complejos, pues es necesaria la intervención de un administrador o representante profesional de AWS para llevarlo a cabo. Esto, dado que habilitar la opción, requiere crear una política de protección de datos y anexarla cuando es necesario.

Gemini, de Google, suele analizar conversaciones con el fin de mejorar el modelo de lenguaje. Mas, estas revisiones pueden ser inhabilitadas en el menú del navegador de Google. Esto requiere ingresar al panel de actividades en la paliación de Gemini y activar la opción de exclusión voluntaria. El proceso de Tumblr es similar, pues sólo requiere de habilitar la opción “impedir que se comparta con terceros” de la configuración de visibilidad de datos. Aunado a ello, la empresa es clara al mencionar que los contenidos explícitos, blogs eliminados y protegidos con contraseña o privados no son compartidos con terceros.

El listado de Wired es muestra de que los procesos de exclusión voluntarios son diversos y varían de compañía en compañía, por lo cual es recomendable consultar las políticas de uso de datos de cada una de las plataformas que se utilizan, en caso de que no quiera compartirse información con posibles compañías desarrolladoras de IA.

DEJA UNA RESPUESTA

Please enter your comment!
Please enter your name here