← volver

Juan Velásquez aborda advertencia sobre peligros de la inteligencia artificial (IA)

Juan Velásquez

¿Es la inteligencia artificial (IA) un peligro para la humanidad? Tras declaración emitida por el Center for AI Safety, organización que aborda y estudia las preocupaciones de seguridad asociadas con los sistemas de IA, diversos líderes de la industria, académicos y celebridades firmaron una carta para advertir que esta tecnología representa un “riesgo de extinción” para la humanidad y que su regulación debiera ser una “prioridad mundial”. Consultado sobre esto, Juan Velásquez, académico de nuestro departamento y experto del área TI, afirma que esta tecnología se debe regular y educar en torno a ella, pero no frenar su desarrollo.

Pese a la muerte de dos de sus integrantes, The Beatles regresará a la historia con el estreno de “Now and then”, anunciada como la canción final del grupo, un tema que se pudo realizar a través de un casette que John Lennon le dedicó a Paul McCartney y el uso de la inteligencia artificial. Pese a estas noticias, que alegran no solo a fanáticos de la desaparecida banda británica, hay preocupación entre los expertos y figuras públicas por los riesgos que puede enfrentar la humanidad por el avance de esta tecnología y advierten incluso el “riesgo de extinción” para la humanidad.

Decenas de líderes de la industria de la inteligencia artificial, académicos y celebridades firmaron un documento publicado por el Centro para la Seguridad de la IA, donde sostienen que “mitigar el riesgo de extinción de la inteligencia artificial (IA) debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear”.

Regulación y educación 

Juan Velásquez, también director del Web Intelligence Centre (WIC), explica que la invitación de los expertos “no es a frenar el desarrollo de la inteligencia artificial, como por ahí hemos escuchado en todos lados y se ha transformado en una paranoia colectiva. El punto es ‘mira, esto que estamos desarrollando va tan rápido, tremendamente rápido, que necesitamos un momento para ver las implicancias que ha de tener, cómo regularlo para sacar lo mejor’”.

Agrega: “Lo que están diciendo es ‘oye, tengamos ojo en esto, porque si esto no lo manejamos bien se nos puede salir de las manos’. Ahora ¿es suficiente con una regulación? Yo creo que no, aquí hay que acompañarlo de otras cosas: la regulación y la educación sobre lo que es la inteligencia artificial”.

Riesgos versus beneficios

Nuestro académico explica que “las tecnologías tienen sus riesgos. Piensa tú en la bomba atómica, la energía nuclear, pero estamos curando el cáncer, entonces, hay que ponerle alerta ahora ya”, sostiene. En esta línea, además, advierte que si bien se está regulando el tema de la inteligencia artificial, no se está haciendo con la celeridad que se necesita.

“Yo también comparto que si no lo regulamos correctamente, se nos puede escapar de las manos, pero también creo que si empezamos con una paranoia excesiva, que vamos a terminar con Terminator 3 caminando por la calle, frenamos el avance. Creo que tenemos una oportunidad como generación dorada de decir: Ok, esto es beneficioso, pero hay que definirlo de la siguiente forma y controlarlo; controlar esta bomba atómica para que no explote y nos sirva como energía nuclear”, concluye Velásquez.

Crédito foto: Freepik

 

 

 

 

 

 

 

 

 

 

Leer artículo completo aquí

Fuente: Prensa Uchile, Ma. Fca. Maldonado Wilson