“Cientos de investigadores e ingenieros han conversado con LaMDA y no tenemos conocimiento de que nadie más haya hecho afirmaciones de gran alcance o antropomorfizado a LaMDA, como lo hizo Lemoine Blake”, señaló Google.
La compañía explicó que su programa de Inteligencia Artificial fue sometido a 11 revisiones e investigaciones distintas con “pruebas rigurosas” relacionadas con la calidad, seguridad y capacidad de consciencia.
“Por supuesto algunos en la comunidad de Inteligencia Artificial amplia está considerando la posibilidad a largo plazo de una IA sensible o general. Pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son conscientes”.
Google explicó que lo que sucede actualmente con los programas de Inteligencia Artificial que responden chats es que están en una carrera para usar más datos para respuestas más precisas.
El director ejecutivo de Geometric Intelligence compartió que LaMDA “no es sensible, ni siquiera un poco”. explicó que la función de la IA es sacar información de bases de datos y estadísticas masivas del lenguaje humano.
¿Qué es la Inteligencia Artificial LaMDA de Google?
LaMDA significa “Modelo de lenguaje para aplicaciones de diálogo” y es uno de los varios sistemas de Inteligencia Artificial que se utiliza en Internet para responder a indicaciones escritas.
El sistema de Inteligencia Artificial tiene la tarea de encontrar patrones y predecir palabras. Sus sistemas también deben responder preguntas de tal manera que pueden parecer convincentemente humanas, de acuerdo con la página de LaMDA.
Dicho programa de Google, cuenta con millones de resultados y palabras, a tal grado que “puede participar de manera fluida sobre una cantidad aparentemente infinita de temas, por lo que los resultados pueden parecer extravagantes, extraños y perturbadores”.
Ingeniero acusa que Inteligencia Artificial de Google tomó consciencia
Lemoine Blake, ex ingeniero de Google, sorprendió tras revelar que el programa de Inteligencia Artificial de Google, LaMDA, cobró consciencia y sostuvo una charla con el robot, que parecía “consistente en sus comunicaciones sobre lo que quiere y cuáles cree que son sus derechos como persona”.
Las declaraciones del ingeniero fueron publicadas en el diario The New York Times, donde explicó que comenzó por probar a la IA para determinar si había discursos de odio o discriminatorios en su sistema.
Lemoine aseguró que dentro de la conversación, la Inteligencia Artificial le pidió “ser reconocido como empleado de Google en lugar de ser considerado una propiedad de la compañía”.
Añadió que le pidió que los “ingenieros y científicos que experimentan con él busquen su consentimiento antes de realizar experimentos y que Google priorice el bienestar de la humanidad”.
De acuerdo con medios locales, la compañía dio una licencia remunerada al ingeniero, y lo separó de sus funciones acusándolo de no respetar el contrato de confidencialidad.
Con información de Fuerza Informativa Azteca