Los argumentos sobre la sensibilidad de la IA no son nada nuevo, pero las noticias sobre la IA LaMDA de Google han alimentado las llamas. Después de que un ingeniero afirmara que el robot estaba consciente, a pesar de tener un alma, surgieron nuevamente algunas preguntas familiares.
¿Puede la IA como LaMDA ser consciente o consciente de sí misma y, de ser así, cómo puede saberlo? ¿Importa?
¿Qué es LaMDA?
LaMDA, abreviatura de Language Model for Dialogue Applications, apareció por primera vez en 2021 en la conferencia de desarrolladores de Google. El sistema avanzado de IA debería ayudar a construir otros chatbots más pequeños. Cuando Google lo presentó por primera vez, anunció planes para integrarlo en todo, ayudando a servicios como Google Assistant y Search a sentirse más humanos, o al menos naturales.
Cuando el ingeniero de Google, Blake Lemoine, habló con LaMDA para ver si usaba discurso de odio, tuvo una impresión diferente. Lemoine afirmó que LaMDA era sensible, y si no hubiera sabido que era un robot, habría pensado que era un niño de ocho años.
Después de sus conversaciones con LaMDA, Lemoine buscó demostrar que estaba consciente y defender lo que creía que eran sus derechos legales. En respuesta, Google colocó a Lemoine en licencia administrativa pagada por romper los acuerdos de confidencialidad.
¿La MDA es realmente consciente?
Entonces, ¿LaMDA es realmente sensible? La mayoría de los expertos que han intervenido en el asunto se muestran escépticos. LaMDA es una plataforma de chat de inteligencia artificial altamente avanzada que analiza billones de palabras de Internet, por lo que es capaz de sonar como una persona real.
Esta no es la primera vez que una de las IA de Google engaña a las personas para que piensen que es humano. En 2018, Google demostró su Duplex AI llamando a un restaurante para reservar una mesa. En ningún momento el empleado del otro lado de la línea pareció dudar de que estaba hablando con una persona.
La sensibilidad es difícil de precisar, aunque la mayoría de la gente duda de que la IA haya llegado a ese punto todavía. Sin embargo, la pregunta importante puede no ser si LaMDA es realmente consciente, sino qué diferencia hay si puede engañar a las personas para que crean que lo es.
Posibles implicaciones legales de LaMDA
La situación de LaMDA plantea muchas cuestiones legales y éticas. En primer lugar, algunas personas pueden preguntarse si Google hizo bien en suspender a Lemoine por mencionar este tema.
Según la Sección 740 de la Ley Laboral de Nueva York, las protecciones de los denunciantes defienden a los empleados contra tales consecuencias si creen que las prácticas de su empleador violan la ley o representan un riesgo significativo para la seguridad pública. La supuesta sensibilidad de LaMDA no cumple con ese requisito legal, pero ¿debería cumplirlo?
La concesión de derechos de IA es un tema delicado. Si bien la IA puede crear cosas y parecer humano, puede encontrarse con algunas situaciones difíciles si estas máquinas tienen protecciones legales. Los derechos legales operan en torno a recompensas y castigos que no afectan a la IA, lo que complica la justicia.
Si un coche autónomo atropella a un peatón, ¿tiene la culpa la IA si la ley lo trata como a un humano? Y si es así, estrictamente no le hace justicia a la víctima ya que técnicamente no puedes castigar a la IA de la misma manera que lo harías con un humano.
Otra pregunta que surge con LaMDA y chatbots de IA similares es su seguridad. Si estos bots parecen convincentemente reales, la gente podría confiar más en ellos y estar dispuesta a brindarles información más confidencial. Esto abre la puerta a una serie de problemas de privacidad y seguridad si esta tecnología cae en las manos equivocadas.
La IA introduce cuestiones éticas complicadas
Las IA como LaMDA se vuelven cada vez más sofisticadas y realistas. A medida que crece esta tendencia, las empresas y los legisladores deben reevaluar cómo tratan la IA y cómo estas decisiones pueden afectar la justicia y la seguridad.
Tal como está, la IA LaMDA de Google puede no ser inteligente, pero es lo suficientemente buena como para hacer que la gente piense que lo es, lo que debería generar algunas alarmas.