Se siente como si prácticamente todo el mundo hubiera estado usando Abrir ChatGPT de AI desde que la IA generativa llegó al horario de máxima audiencia. Pero es posible que muchos profesionales empresariales estén adoptando la tecnología sin considerar el riesgo de estos grandes modelos de lenguaje (LLM).
Por eso necesitamos un enfoque de Apple para la IA generativa.
Lo que pasa en Samsung debería quedarse en Samsung
ChatGPT parece ser una herramienta que hace de todo, capaz de responder preguntas, perfeccionar la prosa, generar sugerencias, crear informes y más. Los desarrolladores han utilizado la herramienta para ayudarles a escribir o mejorar su código y algunas empresas (como Microsoft) están integrando esta inteligencia artificial en productos, navegadores web y aplicaciones existentes.
Eso está muy bien. Pero cualquier usuario empresarial debería prestar atención a las advertencias de empresas como Europol y Agencia de inteligencia del Reino Unido NCSC y considere la letra pequeña antes de comprometer información confidencial. Porque los datos, una vez compartidos, ya no están controlados por la entidad que los comparte, sino por OpenAI, lo que significa que la información confidencial ya no está segura.
Esto puede ser un problema básico de privacidad para muchos usuarios, pero para las empresas, particularmente aquellas que manejan información privilegiada, significa que usar ChatGPT conlleva serios riesgos.
Ha habido advertencias en este sentido en circulación desde que apareció el software, pero claramente no se escuchan a pesar del revuelo pro-LLM. Esto lo sugiere la noticia de que los ingenieros de Samsung Semiconductor han estado usando ChatGPT y al hacerlo generó tres filtraciones de datos sensibles en tan sólo 20 días.
Los ingenieros utilizaron ChatGPT para realizar tareas bastante sencillas:
- Verifique errores en el código fuente.
- Optimizar el código utilizado para identificar instalaciones defectuosas.
- Transcribe una reunión grabada en un teléfono inteligente para crear actas de reunión.
El problema es que en todos estos casos, los empleados efectivamente tomaron información propiedad de Samsung y se la entregaron a un tercero, sacándola del control de la empresa.
Naturalmente, una vez que descubrió que estos eventos habían ocurrido, Samsung advirtió a sus empleados sobre los riesgos de usar ChatGPT. Sus trabajadores vitales entienden que una vez que se comparte la información, podría quedar expuesta a un número desconocido de personas. Samsung está tomando medidas para mitigar dicho uso en el futuro y, si no funcionan, bloqueará el uso de la herramienta en su red. Samsung también está desarrollando su propia herramienta similar para uso interno.
El incidente de Samsung es una clara demostración de la necesidad de que los líderes empresariales comprendan que la información de la empresa no se puede compartir de esta manera.
Necesitamos un enfoque de Apple para la IA generativa
Por supuesto, esa es la razón por la que el enfoque general de Apple hacia la IA tiene tanto sentido. Si bien hay excepciones (incluido en un momento el atroz intercambio de datos para calificar dentro de Siri), la táctica de Apple es tratar de crear soluciones inteligentes que requieran muy pocos datos para funcionar. El argumento es que si Apple y sus sistemas no tienen conocimiento de la información de un usuario, entonces esos datos siguen siendo confidenciales, privados y seguros.
Es un argumento sólido que, por derecho, debería extenderse a la IA generativa y potencialmente a cualquier forma de búsqueda. Apple no parece tener un equivalente a ChatGPT, aunque sí tiene algunos de los componentes básicos sobre los cuales crear equivalentes en dispositivos de la tecnología para su hardware. El increíblemente poderoso Neural Engine de Apple, por ejemplo, parece tener la potencia necesaria para ejecutar modelos LLM con operaciones al menos equivalentes en el dispositivo. Hacerlo entregaría una herramienta mucho más segura.
Aunque Apple aún no tiene su propia versión Diseñado en Cupertino de la IA generativa esperando entre bastidores, es inevitable que a medida que los riesgos del modelo ChatGPT se comprendan más ampliamente, la demanda de acceso privado y seguro a herramientas similares solo se expandirá. Las empresas quieren productividad y eficiencia sin el gasto de la confidencialidad.
Entonces, el futuro de tales herramientas parece basarse en llevar dichas soluciones tanto como sea posible desde la nube al dispositivo. Esa es sin duda la dirección del viaje. Microsoft parece estar dando señales ya que funciona para tejer herramientas OpenAI dentro de Azure y otros productos.
Mientras tanto, cualquiera que utilice un LLM debe seguir los consejos del NCSC y asegurarse de que no incluyan información sensible en las consultas que realicen. También deben asegurarse de no enviar consultas a LLM públicos que “provocarían problemas si se hicieran públicas”.
Y, dado que los humanos son el eslabón débil de toda cadena de seguridad, la mayoría de las empresas probablemente necesiten desarrollar un plan de acción en caso de que se produzca una infracción. ¿Quizás ChatGPT pueda sugerir uno?
Manzana Discusiones grupos en MeWe.