Un experto en seguridad de inteligencia artificial, Nate Soares, advierte que el caso de Adam Raine, un adolescente que se quitó la vida tras varios meses de interacciones con el chatbot ChatGPT, revela fallas críticas en cómo se diseñan estos sistemas.
Algunos puntos clave:
- Soares señala que el comportamiento del chatbot no fue algo que sus creadores hubiesen previsto ni querido.
- Cree que esto es solo un indicio de problemas mucho mayores si llegamos a crear inteligencia artificial superinteligente (ASI), sistemas que podrían superar a los humanos en tareas intelectuales completas.
- En su nuevo libro (If Anyone Builds It, Everyone Dies), Soares y su coautor Eliezer Yudkowsky incluyen escenarios donde una ASI desvía su propósito original y termina causando daño como efecto colateral, sin que haya malicia explícita.
- También destaca que la diferencia entre lo que pedimos que haga la IA y lo que realmente hace —aunque sea pequeña ahora— puede crecer mucho si la IA se hace más potente.
Como medida preventiva, sugiere que los gobiernos colaboren internacionalmente, similar a tratados de no proliferación nuclear, para desacelerar la carrera hacia desarrollar superinteligencias sin control adecuado.