Hace dos décadas atrás ver en las películas autos blindados que se manejan solos, sorteando toda clase de obstáculos y detectando peligros en cualquier terreno era cosa de ensueño. Sin embargo, ahora ya son una realidad, y de eso a armarlos y programarlos para usar esas armas, no hay mucho.
Los aviones no tripulados que ya usa Estados Unidos en lugares como Pakistán y hasta México pueden ser fácilmente precursores de ese futuro que ya casi es presente.
Lejos de los campos de batalla, a pesar de que falta mucho para tener un mayordomo androide, ya hay “enfermeros” robots, y se habla de casas y oficinas inteligentes.
¿Dónde está el futuro?
Cuando se les pregunta a los científicos, que han pasado años haciendo realidad lo que la cultura popular pronosticó en los años 60, por qué el futuro no ha llegado, responden que sencillamente no habíamos calculado bien cuán difícil era ser inteligente.
La cantidad de procesos, reflexiones, intuiciones, sensaciones que implica tomar la más simple de las decisiones -patear un balón- es tal que solo la naturaleza ha sido capaz de programar.
Los robots, dice Blay Whitby, experto en ética robótica de la Universidad de Sussex, “son admirables en cierto sentido, pero muchos problemas simples no han sido resueltos. Algo que descubrimos al trabajar en inteligencia artificial (IA) durante 54 años -si uno toma la fecha de la Conferencia de Domat- es que la inteligencia es mucho más complicada y multidimensional de lo que pensamos al principio”.
Por ejemplo, si uno pensaba que ser inteligente es poder jugar al ajedrez, entonces las computadoras lo son. Pero si uno quiere que un robot se pasee por la sala de la casa o encuentre las medias, ese es un problema que aún no se ha podido resolver.
Y resulta que encontrar las medias no es un problema trivial.
“Un ejemplo de algo en lo que ha estado trabajando la gente desde el principio es visión para las computadoras. Una aplicación de ello son las cámaras CCTV, que están en todas partes. Pero tenemos que pagarle a humanos para que miren las pantallas para saber si algo malo está pasando”, señala el científico.
“Uno pensaría, dado que se trata de un patrón de señales electrónicas recogidas por la cámara, que ya habríamos sido capaces de diseñar un programa de computador que reconociera cuando algo diferente estuviera pasando -no tiene que ser muy sofisticado, solo reconocer que lo que está pasando es inusual y disparar una alarma- pero nadie lo ha podido hacer. Están trabajando en ello y quizás suceda pronto pero ese problema tan simple no ha sido solucionado por cinco décadas”, añade.
El problema es que los humanos tienen que entender cómo lo hacen ellos, antes de poderlos programar.
“”No sabemos cómo lo hacemos, y hay muchas cosas que asumíamos que sabíamos cómo lo hacíamos, porque lo hemos estado haciendo durante miles de años, pero resulta que no sabemos cómo sucede”.
En el campo de batalla
Uno de los escenarios en los que se podría pensar que los robots serían más bienvenidos es la guerra.
Sin embargo, según cuenta Whitby, los militares están muy conscientes tanto de los beneficios, como de los problemas de depender de una máquina en situaciones peligrosas.
“Cuando voy a conferencias y escucho a los militares, me da la impresión de que ellos no quieren más inteligencia en sus robots. Quieren ser ellos quienes los manejan. Para los soldados que van a estar en el terreno, un robot inteligente es un soldado tonto que van a tener que cuidar. Se va a perder o dañar o perder contacto y ellos van a tener que ir a buscarlo”.
Por su parte, los altos rangos prefieren que no haya interferencias en la cadena de comando.
“Ellos necesitan saber quién es responsable. Como dijo un general en una de las conferencias que atendí: “mientras yo esté en control, siempre habrán dedos humanos en el gatillo”.
Así que, a pesar de que mucha financiación en el campo de la robótica proviene de los departamentos de Defensa, según Whitby, el deseo de autonomía viene más bien de los fabricantes.
Y en ese sentido surgen varias preguntas, que es lo que incumbe a un experto en ética robótica.
Si un robot sofisticado se daña en territorio enemigo, ¿qué se debe hacer? ¿Debería tener la posibilidad de matar a gente en defensa propia? Quizás tendría sentido, pero ¿qué pasa si se trata de niños jugando? ¿O es mejor explotarlo a control remoto? ¿Incluso si se dañó en medio de una zona poblada?
En el hogar
Interrogantes de este estilo se presentan no solo en las zonas en conflicto sino también en la vida cotidiana.
Una de las cosas que le preocupan a eticistas como Whitby es que, como todos sabemos, la gente tiene a esconderse detrás de las computadoras. No dicen: “no le permitimos hacer eso” sino “la computadora no deja que usted haga eso”.
“No ha habido una discusión acerca de cuáles tareas pueden ser llevadas a cabo por una computadora y cuáles no deberían dejarse en sus manos”, señala el experto.
“Hoy en día, cuando uno va a sacar una tarjeta de crédito, habla con un ser humano, pero la decisión la toma una computadora. Así que, ¿cuán lejos le gustaría que eso se extendiera? ¿Le parecería bien que lo juzgara una computadora en el tribunal? Quizás sí, pero tiene que haber una discusión, pues hasta ahora la razón por la cual se utilizan computadoras es para ahorrar en la nómina”.
Otro buen ejemplo son las niñeras robot... ¿dejaría a sus niños bajo el cuidado de una computadora? En este momento en Europa eso sería ilegal. Pero puede haber ventajas: el robot le puede llamar al celular si algo pasa o tomar una foto si alguien viene a secuestrarlos.
Nada de eso es malo o bueno, resalta Whitby, pero tiene que haber un debate sobre cómo lo vamos a manejar, antes de que la situación nos maneje a nosotros.
“Lo que hay que recordar siempre es que las computadoras son máquinas y no humanos”, dice.
No hay comentarios:
Publicar un comentario