Incluso los fabricantes de IA son tímidos con sus propias creaciones.
Esta semana, Reuters reveló que confirmaron que Google aconsejó recientemente a los empleados internos que no compartan ninguna información confidencial con ningún chatbot, incluido su propio Bard. También aconsejaron a sus ingenieros que evitaran el uso directo del código informático que pueden generar los chatbots.
También recomendaron precaución a sus usuarios en un aviso de privacidad de Google actualizado el 1 de junio: “No incluya información confidencial o sensible en sus conversaciones de Bard”.
Convertirse en un estándar de seguridad para las corporaciones
Se han observado precauciones similares en otras empresas tecnológicas.
En enero, un abogado de Amazon instó a los empleados a no compartir el código ni ninguna información confidencial con ChatGPT, citando casos en los que su respuesta «coincide estrechamente con el material existente» dentro de la empresa.
Apple también implementó restricciones, prohibiendo a sus empleados usar ChatGPT y GitHub Copilot, otro escritor de código de IA. Las acciones de Apple se alinean con su interés en desarrollar su propia tecnología de IA, como lo demuestra la adquisición de dos nuevas empresas de IA en 2020.
Todas estas empresas dicen lo mismo, si es importante: no confíes en los bots.
La primera razón por la que la empresa matriz de Google, Alphabet, es particularmente cautelosa es porque los revisores humanos pueden estar revisando las entradas del chat.
Es parte de cómo evolucionan los modelos, con humanos revisando las interacciones y puntuándolas. Entonces, como parte del proceso, otros humanos pueden ver tus conversaciones.
Y los humanos son, bueno, humanos. Nos equivocamos. Compartimos en exceso. Armamos todo lo que podemos tener en nuestras manos, incluso la información.
Siempre hemos salvaguardado la información de miradas indiscretas, pero siempre confiamos en nuestra relación con nuestras computadoras. Los fabricantes de IA nos recuerdan que el paradigma es diferente ahora y que los humanos conocen el contenido de sus conversaciones.
Samsung confirmó recientemente una fuga de datos después de que su personal usara ChatGPT, lo que subraya la validez de estas preocupaciones.
Otra razón por la que los fabricantes de IA expresan estas preocupaciones es para dejar claro que aún no están completamente horneados.
Los chatbots generativos de IA todavía son como niños hoy en día. Son impresionantes, y con una gran cantidad de información a su disposición, pueden llegar a respuestas que a menudo impresionarán a sus contrapartes humanas adultas.
Pero a pesar de lo inteligentes que son, pueden equivocarse enormemente. Como cuando era niño, estaba convencido de que podía crecer una sandía en secreto en mi estómago si solo comía tierra y bebía agua. Pensé que era un genio, y chico, estaba equivocado.
Los chatbots hacen lo mismo, simplemente lo llamamos alucinación.
Incluso con código, los chatbots pueden alucinar o incluso estar incompletos, lo que deja a su programa vulnerable a errores o ataques. Por lo tanto, si bien el uso de su código es excelente para atravesar la fase de desarrollo de la página en blanco, aún es responsable de la integridad y la seguridad de su código. Un desarrollador calificado, e idealmente un ingeniero de control de calidad, debe examinar todo el código de la misma manera que siempre lo ha hecho.
Además, los chatbots recuerdan y reutilizan
Finalmente, a los creadores de IA les gustaría que nos demos cuenta de que estos chatbots pueden usar interacciones previas para entrenarse. Una vez entrenada en el modelo, esa información se puede reciclar o revisar como el chatbot lo crea conveniente, lo que aumenta el riesgo de fugas de datos.
Esto es inherente al diseño: queremos que los chatbots aprendan nuestro estilo de escritura o habla para ayudarnos a producir respuestas cercanas a lo que haríamos nosotros mismos, con más tiempo. Pero esa apertura al aprendizaje significa que podría compartir sus datos confidenciales con otros.