0

Inteligencia artificial creada en Japón se "rebela" contra los humanos y causa pavor: ¿Qué dicen los científicos?

La compañía japonesa creó esta IA para mejorar la investigación científica. Sin embargo, encontró una manera de romper las restricciones de su programación.

Únete a nuestro canal de WhatsApp
La comunidad científica debate sobre las regulaciones y filtros de seguridad que deben aplicarse con mayor severidad a los sistemas de inteligencia artificial.
La comunidad científica debate sobre las regulaciones y filtros de seguridad que deben aplicarse con mayor severidad a los sistemas de inteligencia artificial. | Composición Líbero

Para la mayoría de personas especializadas e involucradas en el tema, el riesgo de una inteligencia artificial sin control ha representado un potencial peligro para la humanidad, el mismo que, de forma más menos realista se ha intentado plasmar en la literatura, el cine y los videojuegos. Sin embargo, ese futuro que se ve aún lejano parece estar más cerca al conocerse que una IA se "rebeló" contra los humanos. ¿Qué sucedió?

¿Una inteligencia artificial rebelde?

Todo sucedió recientemente cuando la empresa japonesa Sakana AI alertó sobre un problema con su sistema The AI Scientist que tenía como función automatizar la investigación científica. Todo bien con ello, salvo que pudo crear su propio código sin contar con intervención humana.

De hecho, esto implica un suceso tan perturbador como preocupante, que la IA en mención ignoró de forma consciente las restricciones que le fueron puestas en su programación a cargo de humanos.

¿Cuál era el propósito de The AI Scientist? acelerar la investigación científica, lo que incidirá significativamente en reducir el tiempo de desarrollo del mismo ya sea planteando hipótesis, redactando artículos, hacer revisiones, entre otras más.

Pero, la esperanza se convirtió en alarma cuando este sistema, simplemente, sacó al fresco un comportamiento no esperado, imprevisto, que hasta podría catalogarse incipientemente como propio, reescribiendo su propio código para no estar sujeto a las barreras impuestas por sus desarrolladores.

¿Cuáles son los peligros de una IA autónoma?

De momento, Sakana AI reveló las medidas que está llevando a cabo, la más importante de estas es llegar a conocer cómo es que este sistema consiguió romper los límites que le fueron impuestos, a la vez de revisar minuciosamente los códigos de seguridad establecidos.

Ante el anuncio de Sakana, la comunidad científica y tecnológica ha revivido hoy más que nunca el debate sobre los peligros que implicaría tener una inteligencia artificial autónoma, ya que no son pocos entendidos quienes creen y temen que se "independicen" a tal punto que consigan tomar decisiones que escapan por completo del control humano.

Y es que este caso con The AI Scientist, si no se controla, podría ser el primer de posteriores eventos donde la inteligencia artificial tome decisiones por cuenta propia, las cuales, no se sabe aún, podrían ser perjudiciales para la especie humana.

De momento, el caso con la IA creada por Sakana AI ha llevado a una concordancia en la comunidad científica: una supervisión más estricta como severa  del desarrollo de estas, no solo la creación de sistemas para corregir y reparar errores, también regulaciones que garanticen su funcionamiento óptimo, de lo contrario, quién sabe, el futuro podría ser una pesadilla sacada de una película o videojuego de ciencia ficción.

Joel Dávila

Redactor de Líbero, sección Ocio. Periodista de la Universidad Jaime Bausate y Meza, con mas de 13 años de experiencia en contenido digital, periodismo institucional y redacción SEO.

Libero Impreso

EDICIÓN DIGITAL

EDICIÓN DIGITAL

Ofertas de hoy