Hace ya algunos años leí la lamentable historia de un alce que, en algún lugar de Canadá, murió al ser arrollado por un tren. Según esa historia, el alce estaba corriendo por las vías en la misma dirección del tren, pero, a pesar de los esfuerzos del maquinista para evitar ese desenlace, nunca se hizo a un lado. La nota terminaba con esta pregunta: ¿Acaso el alce no vio al tren?
La respuesta más simple y directa es no, el alce nunca vio al tren porque, según expertos, se trataba de un alce joven sin encuentros previos con trenes, por lo cual no pudo reaccionar como debería haberlo hecho para salvar su vida. En medio de los bosques de Canadá, los alces saben cómo evitar los peligros del bosque, pero no los trenes.
Esa incapacidad de percibir el peligro sin experiencia previa se encuentra también, entre otros ejemplos, en las focas jóvenes al Ártico que, al ver por primera vez a un oso polar, se acerca a ellas, en vez de huir del peligro, allí se quedan, habitualmente, con trágicos resultados para la foca. Si la foca sobrevive, o si fue testigo del incidente, la próxima vez se alejará.
Esos ejemplos del reino animal me llevaron a pensar que es posible que nosotros, los humanos, también podamos llegar a estar en una situación en la que algo peligroso (vivo o mecánico) se acerca a nosotros sin que percibamos ese peligro y, por lo tanto, sin que tomemos las precauciones para evitarlo.
A la vez, esa posibilidad me llevó a pensar en una reciente entrevista del filósofo español Francisco Javier Castro Toledo (quien, a la vez, es doctor en criminología y experto en ética) quien advierte que los humanos aún no hemos percibido o sopesado apropiadamente los peligros y desafíos que la inteligencia artificial representa para el presente y el futuro de la humanidad.
Y una de las razones es que esos peligros y desafíos, hasta donde sabemos, se presentan ahora por primera vez en la historia de la humana, por lo que no existen precedentes históricos exactos o muy parecidos que sirvan de referencia, una situación similar al del alce que por primera vez que un tren o a la de la foca en su primer encuentro con un oso polar.
Según Castro Toledo, a pesar de las bondades de la IA, la IA podría “violar la dignidad humana y restringir libertades individuales”, así como disminuir “la capacidad de las personas de decidir por sí mismas”, con consecuencias “muy perjudiciales,” incluyendo falta de privacidad de datos y una “brecha educativa entre los que tienen y los que no tienen acceso a la última tecnología.”
Sin importar si estamos o no de acuerdo con la apreciación de Castro Toledo (un reconocido experto en el tema) sobre la IA, quizá sea prudente tomar cierta distancia del peligro (algo que ni el alce ni la foca hicieron en los ejemplos compartidos) antes de comprobar ya demasiado tarde que este filósofo español tenía razón.