Van a ser el futuro; van a ser tendencia en las próximas décadas; pueden tener aspecto humanoide y hasta resultar entrañables, pero los robots «sociales» tienen una cara oculta y pueden entrañar numerosos riesgos para la privacidad y para la seguridad.
¿Permitirías acceder a un desconocido a tu edificio? ¿y si ese desconocido fuera un robot?. ¿Dejarías a un desconocido hacerte una foto? ¿y si te lo pide un robot?.
La empresa de ciberseguridad Kaspersky y expertos de la Universidad de Gante (Bélgica) realizaron un estudio y comprobaron que los robots pueden extraer de forma efectiva información sensible de las personas que se «fían» de ellos.
Comprobaron además que la presencia de un robot puede tener un gran impacto en la voluntad de muchas personas, que se inclinan, por ejemplo, por permitirles acceder a un edificio.
Cada vez más, las industrias y los hogares confían en la automatización y en el uso de sistemas robóticos capaces de prestar algunos servicios «sociales», y diferentes estudios apuntan que estos estarán muy extendidos a mediados de siglo, aunque solo entre las clases con un mayor poder adquisitivo.
De momento, la mayoría de esos sistemas están en fase de investigación académica pero este estudio ha profundizado en el impacto social y los peligros potenciales de los robots en su interacción con las personas.
El trabajo realizado en la Universidad de Gante se centró en el impacto producido por un robot diseñado y programado para interactuar con personas utilizando «canales» humanos como el lenguaje o la comunicación no verbal; se hicieron pruebas con cincuenta personas y los expertos comprobaron cómo los robots eran capaces de introducirse en zonas restringidas o extraer información sensible de esas personas.
Uno de esos robots «sociales» se situó cerca de una entrada de seguridad a un edificio de uso mixto (viviendas y oficinas) al que solo se puede entrar a través de puertas con lectores de acceso y, aunque la mayoría de las personas denegaron la entrada a la máquina, el 40 por ciento sí satisficieron su petición y le permitieron el paso.
Cuando el robot se situó como repartidor de pizza y sosteniendo una caja de una conocida marca de comida a domicilio, la mayoría de las personas sí permitió su acceso y no cuestionó su presencia o las razones por las que necesitaba entrar al edificio.
La segunda parte del estudio se centró en tratar de obtener información personal mediante un robot que entablaba una conversación amistosa, pero los investigadores comprobaron que este era capaz de obtener información personal a un ritmo de un dato por minuto.
Los investigadores corroboraron así que la «confianza» en los robots, y sobre todo en los robots «sociales» capaces de interactuar con los humanos, es real y que, por tanto, estos podrían utilizarse para persuadir a la gente para que haga algo o para que revele información sensible; cuanto más «humano» más poder tiene para persuadir y convencer.
El británico David Emm, investigador principal en seguridad de la empresa Kaspersky, ha manifestado que «efectivamente» hay un potencial problema de seguridad relacionado con el uso de robots.
En declaraciones a Efe, Emm ha observado que los robots completamente equipados están todavía en fase de investigación «pero ya hay un número creciente de dispositivos inteligentes desplegados en el hogar».
«Las personas están muy desprotegidas cuando se encuentran en un entorno familiar; tienden a pasar por alto el potencial de la información sensible que dichos dispositivos poseen e incluso llegan a compartir con ellos datos que probablemente no estarían dispuestos a introducir en un formulario físico o a subir a una red social», ha señalado este especialista en ciberseguridad.
A su juicio, esto se acentuará cuando ese asistente doméstico sea un robot humanoide y se acabe convirtiendo en un «amigo» porque el desarrollador de esa máquina puede diseñarla para que recoja información sensible, como ocurre ya -ha alertado- con los altavoces inteligentes.
Hará falta, según David Emm, mucha más investigación para asegurar de forma contundente que la gente confiará más en los robots que en las personas, pero los estudios ya conocidos revelan que hay un nivel de confianza significativo «y probablemente suficiente para que los atacantes del futuro sientan que vale la pena buscar vulnerabilidades».
Como toda la tecnología, los robots pueden llegar a ser «armas de doble filo», ya que, frente a los beneficios que pueden reportar a las personas, está la posibilidad de que accedan a datos muy valiosos para las organizaciones y empresas con fines comerciales «y para los delincuentes», ha corroborado Emm.
Ha apuntado además que todas las máquinas, y también los robots, van a ser programados por humanos y que esa programación siempre se puede hacer con sesgos «a menos que se adopten medidas positivas para minimizar esos riesgos y su impacto cuando se desplieguen».
David Emm ha advertido de que esto ya ocurre en la actualidad con los sistemas de aprendizaje automático (la capacidad que tienen muchas máquinas o dispositivos de aprender de la experiencia) y se ha mostrado convencido de que ocurrirá también en el futuro con los robos completamente equipados. EFE