Por supuesto, ChatGPT está atrayendo bastante atención en varios campos profesionales. Aun así, no está libre de riesgos, y ciertos negocios han optado por prohibir el uso de este chatbot en su espacio laboral.
Podría resultarte obvio, pero cargar datos laborales en una plataforma de inteligencia artificial en línea, propiedad de una empresa externa, representa un riesgo potencial para la seguridad y la privacidad. Sin embargo, ChatGPT puede resultar una herramienta de gran utilidad para aquellos que se sienten presionados por el tiempo.
Los profesionales en ingeniería de software han hallado en ChatGPT una herramienta valiosa para redactar, probar o depurar código, a pesar de que la tecnología no esté exenta de cometer errores.
Según un sondeo realizado a cerca de 12.000 profesionales, se estima que aproximadamente el 43% de los trabajadores utilizan inteligencia artificial como ChatGPT en su lugar de trabajo, en su mayoría sin que su jefe esté al tanto.
Recientemente, Samsung Electronics ha endurecido su postura en cuanto al uso de inteligencia artificial generativa, después de que un ingeniero experimentara la peor pesadilla de cualquier compañía de tecnología al copiar y pegar código fuente confidencial en ChatGPT.
Al igual que muchas otras empresas, Samsung teme que toda la información cargada en plataformas de IA como ChatGPT de OpenAI o Bard de Google se guarde en los servidores de estas compañías, sin ningún medio para acceder a ella o borrarla.
OpenAI tiene la capacidad de utilizar cualquier dato ingresado en sistemas de IA como ChatGPT para perfeccionar su sistema . El miedo radica en que la información privada o confidencial de una empresa proporcionada a ChatGPT pueda ser compartida involuntariamente con otros usuarios.
Y OpenAI aún se encuentra trabajando en sus problemas de seguridad: en marzo, cerró temporalmente ChatGPT para solucionar un error que permitía a los usuarios ver los títulos de los historiales de chat de otros usuarios.
Después, en abril, OpenAI permitió que los usuarios desactivaran su historial de chat , lo cual, según la compañía, impediría que ChatGPT use los datos para entrenar su modelo de IA.
Como resultado de varias preocupaciones de seguridad en torno al chatbot, cerca de la mitad de los líderes de recursos humanos han emitido directrices para el uso de ChatGPT por parte del personal, mientras que el 3 por ciento ha prohibido completamente ChatGPT, de acuerdo con un sondeo llevado a cabo por la consultora Gartner.
No obstante, algunas empresas han reconocido que la IA ya es una realidad y han desarrollado, o están en proceso de crear, sus propias plataformas de IA como alternativas más seguras al libre acceso a ChatGPT.
Amazon prohibió ChatGPT en enero y ha instado a sus desarrolladores a usar su IA interna, denominada CodeWhisperer, si desean consejos de codificación o atajos.
En mayo, Apple limitó el uso de ChatGPT para algunos empleados para prevenir la exposición de información confidencial. Apple está desarrollando su propia plataforma de IA para competir con ChatGPT, respaldada por una inversión multimillonaria de Microsoft .
El Commonwealth Bank of Australia limitó el uso de ChatGPT en junio y ordenó al personal técnico que utilizara una herramienta similar llamada CommBank Gen.ai Studio, que fue desarrollada en colaboración con la empresa de tecnología de Silicon Valley, H2O.ai.
Otros bancos, entre ellos Bank of America, Citigroup, Deutsche Bank, Goldman Sachs, Wells Fargo & Co y JP Morgan, han emitido prohibiciones absolutas de ChatGPT .
La firma de contabilidad PwC ha motivado al personal a explorar con ChatGPT, pero les ha advertido que no utilicen el programa para trabajos con clientes.
Así lo explicó a Financial Review la directora de información digital de PwC, Jacqui Visch:
Nuestras políticas prohíben que nuestro personal use ChatGPT para trabajos con clientes hasta que cumplamos los estándares de calidad que aplicamos a todas las innovaciones tecnológicas para garantizar salvaguardas.
Alrededor del 15 por ciento de los bufetes de abogados han emitido advertencias sobre ChatGPT , según una encuesta de más de 400 profesionales legales de EE. UU., Reino Unido y Canadá. Mishcon de Reya, un bufete de abogados con sede en el Reino Unido con aproximadamente 600 abogados, prohibió el uso de la plataforma de inteligencia artificial debido a los riesgos para los datos confidenciales.
En mayo, se le indicó al personal de cinco hospitales en Australia Occidental que dejaran de usar ChatGPT después de que algunos usaran la plataforma para redactar notas médicas privadas.
Al respecto, esto dijo Paul Forden, quien dirige el Servicio de Salud Metropolitano del Sur de Perth:
Crucialmente, en este punto, no hay garantía de confidencialidad del paciente cuando se usa la tecnología de bots de IA, como ChatGPT, ni comprendemos completamente los riesgos de seguridad.
Por esta razón, el uso de la tecnología de inteligencia artificial, incluido ChatGPT, para actividades relacionadas con el trabajo que incluya cualquier paciente o información de servicios de salud potencialmente confidencial debe cesar de inmediato.
Por otra parte, las empresas que han adoptado abiertamente ChatGPT lo ven como una forma de ahorrar en costos de generación de contenido. The Coca-Cola Company planea usar ChatGPT y el generador de imágenes de IA DALL·E para la marca y el contenido. En enero, BuzzFeed anunció una asociación para crear cuestionarios y otro contenido para Meta utilizando la API disponible públicamente de OpenAI.
El sitio web de blogs Medium ha «acogido con beneplácito el uso responsable de la tecnología de asistencia de IA», pero requiere que los autores divulguen su uso . CNET había experimentado discretamente con historias escritas por IA, pero anunció una pausa en esta operación en enero.
No hay duda de que la IA generativa acabará por tener un lugar en la oficina e incluso puede llegar a reemplazar a parte del personal. Pero, por el momento, muchas empresas ven más riesgos que beneficios.