El CEO de Meta, Mark Zuckerberg, acaba de presentar un modelo de IA despiadado y más realista

El CEO de META, Mark Zuckerberg, presentó un modelo de IA despiadado y más realista.

Llamado Cicerón, el modelo lleva el nombre de un estadista romano y es capaz de realizar habilidades humanas como la negociación, el engaño y la previsión, informa el Washington Post.

El CEO de Meta, Mark Zuckerberg, acaba de presentar un modelo de IA despiadado y más realistaFuente: AFP

Además, el algoritmo de IA suele ganar en el complejo juego de estrategia de Diplomacia.

Esto convierte a Cicero en la primera computadora con IA en lograr un rendimiento a nivel humano en un complejo juego de estrategia de lenguaje natural.

“Un agente que puede jugar a nivel humano en un juego tan estratégicamente complejo como Diplomacy es un verdadero avance para la IA cooperativa”, dijo Yann LeCun, vicepresidente y científico jefe de IA en Meta AI.

La IA jugó con personas en webDiplomacy.net, que es una versión en línea del juego.

Cicerón jugó más de 40 juegos y mostró engaño, crueldad y astucia.

Además, después de jugar con personas reales, Cicero se ubicó en el 10 por ciento superior de los participantes que jugaron más de un juego.

Meta eligió Diplomacia porque a lo largo de las décadas, la IA ha evolucionado a través de patrones establecidos por el juego.

El éxito de Cicero en Diplomacia demuestra cuán impresionantes y realistas se están volviendo los modelos de IA, y Meta lo llama un “avance” en una publicación de blog.

El gigante tecnológico agregó que el avance radica en lograr una combinación de dos áreas diferentes de IA: razonamiento estratégico y procesamiento del lenguaje natural.

“La integración de estas técnicas le da a Cicero la capacidad de razonar y crear estrategias en torno a la motivación de los jugadores, luego usa el lenguaje natural para comunicarse, llegar a acuerdos para lograr objetivos comunes, formar alianzas y coordinar planes”, dijo Meta.

Sin embargo, algunos expertos temen que la IA pueda estar reteniendo información o pensando en el futuro.

“Este tipo de tecnología se puede usar para idear estafas más inteligentes para engañar a las personas o crear falsificaciones profundas más convincentes”, escribe Pranshu Verma para el Washington Post.

“Este es un ejemplo perfecto de cuánto podemos engañar a otras personas”, dijo Kentaro Toyama, profesor y experto en inteligencia artificial de la Universidad de Michigan.

“Estas cosas dan mucho miedo… [and] puede ser usado para el mal”.

“La IA es como la energía nuclear en esta era”, agregó Toyama.

“Tiene un tremendo potencial tanto para el bien como para el mal, pero… creo que si no empezamos a practicar la regulación del mal, toda la ciencia ficción distópica sobre inteligencia artificial se convertirá en un hecho científico distópico”.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *