Informatica

La Nueva Generación de Robots Parecen Más Humanos

Cuando los robots revelan su naturaleza no humana, su eficiencia se ve comprometida.

Los recientes avances tecnológicos en inteligencia artificial han hecho posible que las máquinas, o robots, pasen como humanos. Un equipo de investigadores dirigido por Talal Rahwan, profesor asociado de Ciencias de la Computación en NYU, realizó un experimento para estudiar cómo las personas interactúan con los robots que ellos creen que son humanos, y cómo se ven afectadas esas interacciones una vez que los robots revelan su identidad. Los investigadores descubrieron que los robots son más eficientes que los humanos en ciertas interacciones hombre-máquina, pero solo si pueden ocultar su naturaleza no humana.

En su artículo titulado “Evidencia de comportamiento para un equilibrio entre eficiencia y transparencia en la cooperación hombre-máquina”, publicado en Nature Machine Intelligence, los investigadores presentaron su experimento en el que se les pedía a los participantes que jugaran un juego de cooperación con un asociado humano o un robot asociado. Este juego, llamado el Dilema del prisionero iterado, fue diseñado para capturar situaciones en las que cada una de las partes que interactúan puede actuar de manera egoísta para explotar a la otra parte, o cooperar para lograr un resultado mutuamente beneficioso.

De manera crucial, los investigadores dieron a algunos participantes información incorrecta sobre la identidad de su asociado. A algunos participantes que interactuaron con un humano, se les dijo que estaban interactuando con un robot, y viceversa. A través de este experimento, los investigadores pudieron determinar si las personas tienen prejuicios contra los interlocutores sociales que creen que son robots, y que evalúan el grado en que dicho prejuicio, si existe, afecta la eficiencia de los robots que son transparentes sobre su naturaleza no humana.

Los resultados mostraron que los robots que se hacían pasar por humanos eran más eficientes para convencer al compañero de que cooperara en el juego. Sin embargo, tan pronto como se reveló su verdadera naturaleza, las tasas de cooperación disminuyeron y la superioridad de los robots fue negada.
«Aunque existe un amplio consenso de que las máquinas deben ser transparentes acerca de cómo toman decisiones, no está claro si deberían ser transparentes sobre quiénes son», dijo Rahwan.

«Considere, por ejemplo, Google Duplex, un asistente de voz automatizado capaz de generar un discurso similar al humano para hacer llamadas telefónicas y reservar citas en nombre de su usuario. El discurso de Google Duplex es tan realista que la persona que está al otro lado del teléfono no puede ni siquiera darse cuenta de que está hablando con un robot.

¿Es ético desarrollar un sistema así? ¿Deberíamos prohibir que los robots pasen como humanos y obligarlos a ser transparentes sobre quiénes son? Si la respuesta es ‘Sí’, entonces nuestros resultados resaltan la necesidad de establecer estándares para el costo de eficiencia que estamos dispuestos a pagar a cambio de dicha transparencia».

 

Fuente: Universidad de Nueva York

SHARE
RELATED POSTS
Data Could be Storage in Molecules
Los Datos Podrían ser Almacenados en Moléculas por Millones de Años  
AI calcula a la velocidad de la luz
Uso de la música para gestionar redes

Comments are closed.