Apple prohíbe a sus empleados el uso de ChatGPT

Esta medida también aplicará a otras herramientas de IA.

|
Twitter Facebook Whatsapp
properties.alt

Apple advierte a sus empleados sobre los riesgos asociados con estas herramientas, mientras que otras grandes corporaciones también han impuesto restricciones similares.

El gigante tecnológico Apple tomó medidas para restringir a sus empleados el uso de herramientas de inteligencia artificial generativa como el ChatGPT de OpenAI en sus instalaciones y para todo lo relacionado con actividades laborales, pero no es la única empresa.

Apple está preocupado por la posibilidad de que información confidencial se filtre y sea capturada o almacenada sin la autorización de la compañía, lo cual podría ocurrir en estos sistemas.

Es por esto que la compañía hizo la advertencia a sus empleados sobre los riesgos asociados con el uso de herramientas como ChatGPT y el asistente de programación de GitHub llamado Copilot de Microsoft.

Teniendo en cuenta que en Apple el secretismo sobre sus productos y servicios es absoluto, la medida es lógica y el ChatGPT es tan indiscreto, recolecta datos que llegan a los servidores y puedan llegar a compartir datos sensibles, personales o confidenciales que acaben donde no deben.

El debate por el uso de herramientas de IA generativa subió de tono, especialmente porque al parecer los grandes corporativos tienen serias dudas en cuanto a la privacidad y la seguridad en el manejo de su información corporativa confidencial que se pueda filtrar.

Apple no es la única empresa que impuso restricciones, se sabe que otras compañías como JP Morgan, Samsung, Walmart, Verizon y Amazon también han restringido el uso de herramientas de IA generativa, ante preocupaciones por la privacidad y seguridad de los datos.

OpenAI, la propia empresa que desarrolla el ChatGPT, reconoció que tuvo que deshabilitar el acceso a la plataforma hace unas semanas cuando detectó que un error permitía a los usuarios ver en su perfil el historial de conversaciones de otras personas y a partir de esto desarrollar la capacidad de desactivar el historial de las conversaciones para bloquear que el modelo se entrenase a partir de ellas.


Artículos relacionados