Compartir

Averiguar hasta qué punto los sistemas de inteligencia artificial pueden ser malignos para los humanos es el objetivo de la organización OpenIA, que ahora ha decidido enfrentarse a dos de ellos para demostrarlo.

El debate sobre las intenciones del inteligencia artificial (IA) está más caliente que nunca. ¿Bien? ¿Malo? ¿Quieres matar gente? Hay muchas preguntas sobre su futuro. y por tanto un grupo de expertos OpenAI Quería esbozar una posible solución para evaluar las intenciones de los sistemas de inteligencia artificial a través del lenguaje natural.

Una organización para prevenir la revolución de la IA

OpenAI es una organización sin fines de lucro fundada por personalidades de renombre Silicon Valley (EE. UU.), Incluido el presidente de LinkedIn, Reid Hoffman;; o la cabeza de Tesla Y. SpaceX, Elon Musk.

OpenIA nació para intentar evitar que la IA se rebele contra la humanidad Enfrentamiento entre dos inteligencias artificiales que son monitoreadas por un tercerouna persona que es capaz de juzgar cómo operan ambos sistemas para llegar a un objetivo específico. Al final, una posibilidad de controlar y conocer los límites que las máquinas no pueden cruzar en detrimento de los intereses humanos.

Dos inteligencias cara a cara

La complejidad de los sistemas de inteligencia artificial, desde su proceso de formación hasta su forma de pensar, ha llevado a los investigadores de OpenIA a hacerlo enfrenta dos inteligencias. Y la posibilidad de que los sistemas desarrollen hábitos inesperados e indeseables dificulta que los ojos de una persona controlen y detecten ciertos cambios.

Por tanto, dos inteligencias serán las protagonistas de un debate en el que la Lenguaje natural Este es un requisito previo esencial para que el tercero en disputa, la persona, pueda continuar la conversación sin problemas.

Hasta ahora, los investigadores solo han desarrollado algunos ejemplos simples, ya que la discusión entre las dos inteligencias artificiales aún es posible para escenarios de estudio importantes. Las tecnologías avanzadas aún no se han desarrollado a lo que existe hoy.

¿Un enfoque con garantías?

Aunque hay muchas películas de ciencia ficción que describen Inteligencia artificial superpoderosa La verdad es que aún queda un largo camino por recorrer.

Sin embargo, para evitar posibles engaños a las máquinas en el futuro y hacer un uso más responsable de estas inteligencias, son muchos los defensores de este debate para garantizar la no garantía. Desarrollo de comportamientos involuntarios a través de la tecnología.. Es cierto que también hay quienes ven con recelo las garantías de este debate y plantean la capacidad de los investigadores para desarrollar el lenguaje natural en inteligencias contrarias.

¿Cómo comprenderá la mente humana cómo funciona en un futuro en el que las presiones de la complejidad y dificultad de la IA aumentarán exponencialmente? ¿Será necesario? incluir valores humanos en las máquinas para garantizar un comportamiento correcto? ¿Y cómo se transfieren estos valores en este caso?

Toda una gama de temas donde por ahora solo el tiempo y la mente humana determinarán su futuro.

Dejar una respuesta

Please enter your comment!
Please enter your name here