Superinteligencia
Caminos, peligros, estrategias
Lea o escuche sin conexión
Amazon KindleReseña
El futurista de la Universidad de Oxford, Nick Bostrom, argumenta que la IA promete un mundo más seguro, rico e inteligente, pero quizá la humanidad no sea capaz de sufragar la promesa de la IA. Cuanto más analiza Bostrom los preconceptos sobre la IA, más pensará usted que la humanidad carece de los recursos y de la imaginación para mudar de un mundo liderado por la gente, a un mundo en que algún elemento superinteligente podría amenazar o dominar. Bostrom explora las posibilidades de –y las preocupaciones relacionadas con– tal semifallo. Por ejemplo, pregunta qué pasaría si dicho elemento pudiera convertirse en un gobierno mundial con principios morales inciertos. Su libro es informado y denso, con múltiples puntos de reflexión. La postura “qué pasaría si” conduce su narrativa. Este es un tratado profundo diseñado para quien tiene hondo interés, no para el que tiene un interés leve. getAbstract recomienda la especulación rica y moralmente compleja de Bostrom a personas que elaboran políticas así como a futuristas, estudiantes, inversores y pensadores interesados en la alta tecnología.
Resumen
Sobre el autor
Nick Bostrom, profesor de la Universidad de Oxford, es director fundador del Instituto del Futuro de la Humanidad.
Comentarios sobre este resumen o Начать обсуждение