Miniatura contraportada Si alguien la crea, todos moriremos
Próximamente
Portada Si alguien la crea, todos moriremos
Contraportada Si alguien la crea, todos moriremos

Si alguien la crea, todos moriremos

Por qué la superinteligencia artificial es una amenaza para la humanidad

  • Eliezer Yudkowsky
  • Nate Soares

Sinopsis de Si alguien la crea, todos moriremos

Un llamamiento inaplazable para poner freno a la carrera hacia la superinteligencia.

Desde hace unos años, cientos de expertos en inteligencia artificial vienen advirtiendo que esta supone un grave peligro de extinción para la humanidad. Sin embargo, la carrera no ha dejado de intensificarse: empresas y países compiten por crear máquinas más inteligentes que cualquier persona, y el mundo no...

Ficha Técnica

Temáticas
Publicación4 marzo 2026
ColecciónImago Mundi
PresentaciónRústica con solapas
TraductoraOlga García Arrabal
Formato14.5 x 22.7 cm
EditorialEdiciones Destino
ISBN978-84-233-6934-8
Páginas288
Código0010393767
Tinta texto interiorColor

Por qué leer

Motivos para leer Si alguien la crea, todos moriremos

Un discurso completamente rompedor sobre la actualidad de la IA y un llamamiento a regular su seguridad ante los peligros de la creación de una superinteligencia artificial.  

Los autores son una autoridad en la materia: Yudkowsky, cofundador del MIRI que ha estado en la lista del Time100 Most influential People in AI, y Soares, extrabajador de Microsoft y Google, hoy presidente de MIRI, escribe sobre IA segura y debate con líderes como Elon Musk.

Un libro que ha funcionado muy bien en Estados Unidos, ha estado en la lista de los más vendidos del New York Times y ha iniciado un debate público necesario.

Opiniones

Comentarios y valoraciones sobre Si alguien la crea, todos moriremos

Aun no hay comentarios ni valoraciones para este libro. Sé el primero en valorar este libro.

Sala de prensa de Si alguien la crea, todos moriremos