Saltar a navegação
Superinteligencia
Libro

Superinteligencia

Caminos, peligros, estrategias

Oxford UP, 2014 mais...

áudio gerado automaticamente
áudio gerado automaticamente

Clasificación editorial

7

Cualidades

  • Revelador
  • Visionario

Reseña

El futurista de la Universidad de Oxford, Nick Bostrom, argumenta que la IA promete un mundo más seguro, rico e inteligente, pero quizá la humanidad no sea capaz de sufragar la promesa de la IA. Cuanto más analiza Bostrom los preconceptos sobre la IA, más pensará usted que la humanidad carece de los recursos y de la imaginación para mudar de un mundo liderado por la gente, a un mundo en que algún elemento superinteligente podría amenazar o dominar. Bostrom explora las posibilidades de –y las preocupaciones relacionadas con– tal semifallo. Por ejemplo, pregunta qué pasaría si dicho elemento pudiera convertirse en un gobierno mundial con principios morales inciertos. Su libro es informado y denso, con múltiples puntos de reflexión. La postura “qué pasaría si” conduce su narrativa. Este es un tratado profundo diseñado para quien tiene hondo interés, no para el que tiene un interés leve. getAbstract recomienda la especulación rica y moralmente compleja de Bostrom a personas que elaboran políticas así como a futuristas, estudiantes, inversores y pensadores interesados en la alta tecnología.

Ideas fundamentales

  • La inteligencia artificial (IA) ya supera a la inteligencia humana en muchos campos.
  • Una gran pregunta es si la superinteligencia artificial puede reflejar las emociones humanas, como el amor o el odio. Y si es así, ¿cómo?
  • La “emulación total del cerebro” requiere la reproducción digital del cerebro de una persona fallecida.

Sobre el autor

Nick Bostrom, profesor de la Universidad de Oxford, es director fundador del Instituto del Futuro de la Humanidad.


Comentarios sobre este resumen o Iniciar a Discussão

  • Avatar
  • Avatar
    Y. O. hace 6 años
    Muy bueno...Que decidiremos para nuestro futuro.
  • Avatar
    I. R. hace 8 años
    Lo mas increible es que somos la única raza que intenta volverse obsoleta a si misma. Asimov ya lo veia venir, de allí sus 3 leyes de la robotica.
  • Avatar
    J. L. hace 9 años
    Excelente, para se pensar se o desenvolvinento da super inteligência seria bom para a humanidade.