Los aficionados a la ciencia ficción quieren estar familiarizados con las Tres leyes de la robótica de Isaac Asimov. Asimov utiliza el problema de controlar el comportamiento de la inteligencia.
Aunque no hay duda de que Google ha estado en las próximas décadas.
Nick Bostrom, un pensador influyente en el tema de la IA, llama a esto el "problema de control". En esencia, cualquier mente artificial suficientemente inteligente podría haber tenido efectos devastadores en el mundo. de antemano.
En su blog "Cuestiones concretas en la seguridad de AI", Google tiene cuidado de dar algunas repercusiones negativas negativas como ejemplos: un robot que intenta limpiar un tomacorriente eléctrico., etc ... - pero el hecho de no resolver el problema de control en realidad presenta riesgos mucho mayores, como la "catástrofe existencial".
Google ha identificado cinco subpartes de este problema, cada una de las cuales debe abordarse específicamente antes de que sea seguro avanzar hacia el desarrollo de AI de propósito general. The Big One está evitando los efectos secundarios negativos, que no tienen ningún sentido al respecto.
The Big One está evitando los efectos secundarios negativos, que no tienen ningún sentido al respecto.
Otros problemas incluyen Evitar el hacking de recompensas, que no funcionaría bien en el futuro.
La exploración abrumadora y segura garantiza que no tenga efectos negativos.
Robustness to Distributional Shift aborda la preocupación de que el entorno del mundo real de AI quiere ser más fundamentalmente diferente de su entorno de entrenamiento. Al igual que un graduado universitario, quiere ser importante para una IA que ingrese al mundo real y consiga un trabajo y no termine discutiendo con extraños de su madre en Internet.
¿Qué piensas sobre la investigación en curso de Google sobre la IA? ¿Las preocupaciones sobre las posibles consecuencias negativas del desarrollo de inteligencia artificial son exageradas o, como cree Elon Musk, es "convocar al demonio"? Háganos saber en los comentarios a continuación.