X, la plataforma anteriormente conocida como Twitter, planea cambiar su política de privacidad el
15 de noviembre de 2024.
Esta actualización permitirá a socios externos utilizar los datos de los usuarios para mejorar los modelos de inteligencia artificial.
Esta decisión ha generado alarmas sobre la privacidad y el manejo de la información personal.
Muchas personas están preocupadas por cómo este cambio afectará la seguridad de los datos y el consentimiento del usuario.
También les preocupa cuán transparente será X respecto al uso de los datos.
La nueva política incluirá una sección llamada “colaboradores externos.”
Esta sección explica cómo se puede compartir la información del usuario con otros para entrenar IA.
Tal cambio marca una notable diferencia con respecto a las prácticas de datos anteriores.
También podría crear nuevas oportunidades de ingresos para la plataforma.
X ha declarado que los usuarios tendrán la opción de optar por no compartir sus datos para el entrenamiento de IA.
Sin embargo, los detalles sobre cómo optar por no participar aún no están claros.
Actualmente, no hay una opción visible en la configuración para prevenir el intercambio de datos.
Esta falta de claridad es preocupante para muchos usuarios.
A medida que se acerca la fecha límite del 15 de noviembre de 2024, se anima a los usuarios de la plataforma X, anteriormente conocida como Twitter, a mantenerse informados sobre sus derechos y cómo podrían utilizarse sus datos. Este próximo cambio en la política es parte de una tendencia más amplia entre las plataformas de redes sociales que buscan monetizar la información de los usuarios a través de la inteligencia artificial.
La política actualizada introduce una nueva sección llamada “colaboradores externos,” que describe cómo se pueden compartir los datos de los usuarios con partes externas para el entrenamiento de modelos de IA. Esto marca un cambio significativo con respecto a las prácticas de manejo de datos pasadas.
Los defensores de la privacidad están levantando banderas rojas sobre la falta de claridad en el proceso de exclusión. Aunque se promete a los usuarios la capacidad de excluir sus datos del entrenamiento de IA, los detalles sobre cómo ejecutar esto son vagos. Actualmente, no hay una opción sencilla disponible en la configuración del usuario para optar por no compartir datos.
Esta ambigüedad ha provocado preocupaciones entre los usuarios respecto a la privacidad de los datos y la protección de la información personal. Muchos se preguntan cómo esta nueva política podría redefinir el compromiso de X con la protección de los datos de los usuarios.
Además, los cambios probablemente impactarán la relación de X con los organismos reguladores. Por ejemplo, los reguladores de privacidad europeos ya están investigando el uso de datos de X para el entrenamiento de IA. Tal escrutinio subraya la tensión entre los avances tecnológicos y los derechos de los individuos sobre sus datos.
Además de las modificaciones a la política de privacidad, X también está revisando sus términos de servicio. Nuevas reglas impondrán consecuencias más estrictas para las empresas que sean sorprendidas extrayendo grandes cantidades de datos de la plataforma, con el objetivo de proteger a los usuarios de accesos no autorizados a su información.
Esto está sucediendo en un momento en que numerosas plataformas de redes sociales están explorando estrategias similares para obtener ganancias del contenido generado por los usuarios. Otras empresas también están navegando sus propios caminos para convertir datos públicos en recursos valiosos para el desarrollo de IA.
En última instancia, los usuarios de X deben estar atentos e informados sobre sus derechos de datos a medida que se desarrollan los cambios. El panorama en evolución del intercambio de datos en la era de la IA destaca la necesidad de una comunicación clara por parte de las plataformas respecto a sus políticas de privacidad y prácticas de uso de datos.