Si Alguien la Crea, Todos Moriremos
Por qué la Superinteligencia Artificial Es una Amenaza para la Humanidad
Eliezer Yudkowsky, Nate Soares / Yudkowsky, Eliezer / Soares, Nate
En 2023, cientos de expertos en inteligencia artificial advirtieron que supone un grave riesgo de extinción para la humanidad. Desde entonces, la carrera se ha intensificado: empresas y países compiten por crear máquinas más inteligentes que cualquier persona, y el mundo no está preparado. Durante décadas, Yudkowsky y Soares han estudiado cómo pensarán estas inteligencias y con...
Sinopsis
En 2023, cientos de expertos en inteligencia artificial advirtieron que supone un grave riesgo de extinción para la humanidad. Desde entonces, la carrera se ha intensificado: empresas y países compiten por crear máquinas más inteligentes que cualquier persona, y el mundo no está preparado. Durante décadas, Yudkowsky y Soares han estudiado cómo pensarán estas inteligencias y concluyen que desarrollarán objetivos propios, en conflicto con los nuestros. Si llega el enfrentamiento, nos aplastarán, pero aún estamos a tiempo de frenar y diseñar políticas que garanticen nuestra seguridad. La conclusión es clara: debemos actuar ahora para que la IA sea una aliada, no una amenaza. Este libro explica por qué, cómo y qué debemos hacer para sobrevivir.
«Puede que sea el libro más importante de nuestro tiempo.» Tim Urban, Wait But Why
Comentarios
Sé el primero en comentar este libroInformación de seguridad
- Cargando la información ...
Artículos relacionados
