LaMDA: ¿Es real la inteligencia artificial sensible de Google?

Los argumentos sobre la sensibilidad de la IA no son nada nuevo, pero las noticias sobre la IA LaMDA de Google han alimentado las llamas. Después de que un ingeniero afirmara que el robot estaba consciente, a pesar de tener un alma, surgieron nuevamente algunas preguntas familiares.


¿Puede la IA como LaMDA ser consciente o consciente de sí misma y, de ser así, cómo puede saberlo? ¿Importa?


También te puede interesarLOS 10 ALGORITMOS DE APRENDIZAJE AUTOMÁTICO MÁS LISTAS SIMPLIFICADOS PARA 2023

¿Qué es LaMDA?

LaMDA, abreviatura de Language Model for Dialogue Applications, apareció por primera vez en 2021 en la conferencia de desarrolladores de Google. El sistema avanzado de IA debería ayudar a construir otros chatbots más pequeños. Cuando Google lo presentó por primera vez, anunció planes para integrarlo en todo, ayudando a servicios como Google Assistant y Search a sentirse más humanos, o al menos naturales.

Cuando el ingeniero de Google, Blake Lemoine, habló con LaMDA para ver si usaba discurso de odio, tuvo una impresión diferente. Lemoine afirmó que LaMDA era sensible, y si no hubiera sabido que era un robot, habría pensado que era un niño de ocho años.

También te puede interesarConvierta sus películas antiguas en video 2K y 4K con AVCLabs Video Enhancer AI

Después de sus conversaciones con LaMDA, Lemoine buscó demostrar que estaba consciente y defender lo que creía que eran sus derechos legales. En respuesta, Google colocó a Lemoine en licencia administrativa pagada por romper los acuerdos de confidencialidad.

También te puede interesarCreé la introducción PERFECTA de YouTube usando los datos de MrBeast

¿La MDA es realmente consciente?

Entonces, ¿LaMDA es realmente sensible? La mayoría de los expertos que han intervenido en el asunto se muestran escépticos. LaMDA es una plataforma de chat de inteligencia artificial altamente avanzada que analiza billones de palabras de Internet, por lo que es capaz de sonar como una persona real.

Esta no es la primera vez que una de las IA de Google engaña a las personas para que piensen que es humano. En 2018, Google demostró su Duplex AI llamando a un restaurante para reservar una mesa. En ningún momento el empleado del otro lado de la línea pareció dudar de que estaba hablando con una persona.

También te puede interesar«Cosas que necesita saber sobre las cadenas en Python»

La sensibilidad es difícil de precisar, aunque la mayoría de la gente duda de que la IA haya llegado a ese punto todavía. Sin embargo, la pregunta importante puede no ser si LaMDA es realmente consciente, sino qué diferencia hay si puede engañar a las personas para que crean que lo es.

La situación de LaMDA plantea muchas cuestiones legales y éticas. En primer lugar, algunas personas pueden preguntarse si Google hizo bien en suspender a Lemoine por mencionar este tema.

Según la Sección 740 de la Ley Laboral de Nueva York, las protecciones de los denunciantes defienden a los empleados contra tales consecuencias si creen que las prácticas de su empleador violan la ley o representan un riesgo significativo para la seguridad pública. La supuesta sensibilidad de LaMDA no cumple con ese requisito legal, pero ¿debería cumplirlo?

La concesión de derechos de IA es un tema delicado. Si bien la IA puede crear cosas y parecer humano, puede encontrarse con algunas situaciones difíciles si estas máquinas tienen protecciones legales. Los derechos legales operan en torno a recompensas y castigos que no afectan a la IA, lo que complica la justicia.

Si un coche autónomo atropella a un peatón, ¿tiene la culpa la IA si la ley lo trata como a un humano? Y si es así, estrictamente no le hace justicia a la víctima ya que técnicamente no puedes castigar a la IA de la misma manera que lo harías con un humano.

Otra pregunta que surge con LaMDA y chatbots de IA similares es su seguridad. Si estos bots parecen convincentemente reales, la gente podría confiar más en ellos y estar dispuesta a brindarles información más confidencial. Esto abre la puerta a una serie de problemas de privacidad y seguridad si esta tecnología cae en las manos equivocadas.

La IA introduce cuestiones éticas complicadas

Las IA como LaMDA se vuelven cada vez más sofisticadas y realistas. A medida que crece esta tendencia, las empresas y los legisladores deben reevaluar cómo tratan la IA y cómo estas decisiones pueden afectar la justicia y la seguridad.

Tal como está, la IA LaMDA de Google puede no ser inteligente, pero es lo suficientemente buena como para hacer que la gente piense que lo es, lo que debería generar algunas alarmas.

Scroll al inicio