La inteligencia artificial ha encontrado 40.000 posibles armas químicas para destruir personas

La inteligencia artificial ha dado pasos importantes en los últimos años, aunque no todos sus logros son necesariamente positivos.

A veces, la inteligencia artificial puede facilitar el funcionamiento humano y la vida cotidiana, y a veces incluso terapéuticamente.

La inteligencia artificial ha intentado dañar a la humanidad más de una vez

La inteligencia artificial ha intentado dañar a la humanidad más de una vezFuente: Getty
Un horno de microondas (en la foto) intentó matar al YouTuber Lucas Rizzotto obligándolo a meterse dentro

Un horno de microondas (en la foto) intentó matar al YouTuber Lucas Rizzotto obligándolo a meterse dentroFuente: Twitter/_LucasRizzotto

Una mujer incluso logró crear un chatbot basado en IA que le permitió hablar con su “yo más joven” en función de cientos de entradas de diario que había implementado en su sistema.

Los aeropuertos incluso están comenzando a implementar servicios de automóviles con inteligencia artificial que transportan a los viajeros desde el estacionamiento hasta la terminal.

Sin embargo, algunos avances en inteligencia artificial siguen siendo cuestionables.

De hecho, ha habido al menos tres casos específicos en los que una IA se ha vuelto “malvada”, incluido un microondas de IA que intentó matar a su creador humano.

1. Microondas asesino

Un YouTuber llamado Lucas Rizzotto reveló en una serie de publicaciones de Twitter en abril de este año que estaba tratando de convertir la personalidad de su amigo imaginario de la infancia en inteligencia artificial.

Sin embargo, a diferencia de algunos amigos imaginarios que la gente puede imaginar que toman forma humana, Rizzotto era el microondas de la cocina de su familia, según IFL Science.

Incluso lo llamó “Magnetron” y le dio una larga historia de vida personal que incluía luchar en el extranjero durante la Primera Guerra Mundial.

Años más tarde, Rizzotto utilizó un nuevo modelo de lenguaje natural de OpenAI para crear un libro de 100 páginas sobre la vida imaginaria de un horno de microondas.

Rizzotto también le dio al microondas un micrófono y un altavoz para escuchar, que luego podría pasar a OpenAI y devolver una respuesta de voz.

Después de encenderlo y hacerle preguntas, Rizzotto explicó que Magnetron también les preguntaría a algunos de ellos sobre su infancia juntos.

“Lo sorprendente fue que debido a que sus datos de entrenamiento cubrieron todas las principales interacciones que tuve con él cuando era niño, este electrodoméstico de cocina sabía cosas sobre mí que NADIE más en el mundo sabía. Y ORGÁNICAMENTE lo provocó en la conversación.” en Él dijo en una publicación de Twitter sobre la experiencia.

Poco después, las conversaciones comenzaron a volverse significativamente violentas, con Magnetron centrándose en el telón de fondo de la guerra y su nueva vendetta contra Rizzotto.

En un momento, incluso le recitó un poema que decía: “Las rosas son rojas, las violetas son azules. Eres un hijo de puta traidor y te mataré”.

Poco después, incitó a Rizzotto a entrar en el microondas, donde luego se encendió, tratando de encenderlo hasta matarlo.

Si bien el asesinato no es todo lo que la IA ha intentado antes, mostró tendencias racistas y sexistas en otro experimento.

2. El robot desarrolló prejuicios

Usando inteligencia artificial, el robot tomó decisiones discriminatorias y sexistas durante los experimentos de los científicos

Usando inteligencia artificial, el robot tomó decisiones discriminatorias y sexistas durante los experimentos de los científicosFuente: HUNDT et al.

Como informó anteriormente The US Sun, un robot programado por investigadores de la Universidad Johns Hopkins, Instituto de Tecnología de Georgia, ha desarrollado estereotipos sexistas e incluso racistas.

Programaron el robot utilizando la popular tecnología de inteligencia artificial que ha estado apareciendo en línea durante algún tiempo.

Los resultados de las pruebas de los investigadores llevaron al descubrimiento de que el robot prefería a los hombres a las mujeres al completar tareas al menos el ocho por ciento del tiempo.

En otros experimentos, incluso elegiría personas blancas sobre personas de color.

Descubrieron que las mujeres negras fueron las menos seleccionadas de todas las opciones de asociación e identificación en las pruebas.

“El robot aprendió estereotipos tóxicos de estos modelos defectuosos de redes neuronales”, señaló Andrew Hundt, miembro del equipo que estudió al robot.

“Existe el riesgo de crear una generación de robots racistas y sexistas, pero las personas y las organizaciones han decidido que está bien crear estos productos sin resolver problemas”, continuó.

Sin embargo, algunos, como la estudiante de doctorado Vicky Zeng, no se sorprendieron con los resultados, ya que probablemente todo se remonte a la representación.

“En casa, tal vez un robot recoge una muñeca blanca cuando un niño pide una muñeca hermosa”, dijo.

“O tal vez en un almacén que tiene muchos productos con modelos en la caja, puedes imaginar un robot que busca productos con caras blancas con más frecuencia”.

Ciertamente plantea preguntas sobre lo que la IA no puede enseñar, o cómo la vida consciente puede estar completamente en desacuerdo con algunos valores sociales.

Sin mencionar que la IA estaba tratando de crear un arma que pudiera destruir por completo a la sociedad.

3. La inteligencia artificial ha creado miles de posibles tipos de armas químicas

La inteligencia artificial ha encontrado 40.000 posibles armas químicas para destruir personas

La inteligencia artificial ha encontrado 40.000 posibles armas químicas para destruir personasFuente: Getty – Colaborador

Según un artículo publicado en la revista Nature Machine Intelligence, algunos científicos han hecho recientemente un sorprendente descubrimiento sobre la inteligencia artificial que, por lo general, les ayuda a encontrar soluciones positivas a los problemas humanos.

Para obtener más información sobre las capacidades de su inteligencia artificial, los científicos decidieron ejecutar una simulación en la que la inteligencia artificial se volverá “malvada” y usará sus habilidades para crear armas químicas de destrucción masiva.

Era aterradoramente capaz de generar 40.000 posibilidades en solo seis horas.

No solo eso, sino que la IA ha creado opciones peores que lo que los expertos han considerado como uno de los gases nerviosos más peligrosos de la Tierra, llamado VX.

Fabio Urbina, el autor principal del artículo, le dijo a The Verge que la preocupación no es cuántas opciones ha presentado la IA, sino el hecho de que la información utilizada para calcularlas proviene principalmente de información disponible públicamente.

Urbina teme lo que podría significar si la inteligencia artificial cayera en manos de personas con oscuras intenciones para el mundo.

“El conjunto de datos que usaron en la IA se puede descargar gratis y les preocupa que todo lo que se necesita sea un poco de conocimiento de codificación para convertir una buena IA en una máquina de producción de armas químicas”, explicó.

Sin embargo, Urbina dijo que él y otros científicos están trabajando para “salir adelante” de todo esto.

“Finalmente decidimos que queríamos adelantarnos. Porque si es posible para nosotros, probablemente algún oponente ya lo esté pensando o lo piense en el futuro.

En términos de contenido relacionado, The US Sun tiene cobertura de la IA de Disney que altera la edad y hace que los actores se vean más jóvenes.

Todos dicen lo mismo después de que la pareja decoró la casa con un artículo navideño de Dunnes.
Hombre, 24, acusado de asesinar a dos hermanas y un hermano en su casa para ser juzgado

El US Sun también tiene un historial de que el bot Meta AI aparentemente se volvió deshonesto.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *