Nick Bostrom Libros Populares

Nick Bostrom Biografía y Hechos

Nick Bostrom (en sueco, Niklas Boström) es un filósofo sueco de la Universidad de Oxford, nacido en 1973. Es conocido por sus trabajos sobre el principio antrópico, el riesgo existencial, la ética sobre el perfeccionamiento humano, los riesgos de la superinteligencia y el consecuencialismo. Obtuvo un PhD en la Escuela de Economía y Ciencia Política de Londres en el año 2000. En 1998, Bostrom cofundó junto a David Pearce la Asociación Transhumanista Mundial. En 2004 cofundó junto a James Hughes el Instituto para la Ética y las Tecnologías Emergentes. En el año 2006, ha sido el director fundador del Future of Humanity Institute en la Universidad de Oxford. FHI es un centro de investigación multidisciplinar único en el que un grupo de investigadores destacados, desde los campos de las matemáticas, la informática, la filosofía, entre otras disciplinas, se unen para trabajar en cuestiones de gran formato para la humanidad. En 2011 fundó el Programa Oxford Marton Sobre los Impactos de la Tecnología Futurista y es el director fundador del Instituto Futuro de la Humanidad en la Universidad de Oxford. Es el autor de más de 200 publicaciones,[1]​ incluyendo: Superinteligencia: caminos, peligros, estrategias (2014), un bestseller según New York Times,[2]​ y Sesgo antrópico: efectos de la selección de observación en la ciencia y la filosofía (2002).[3]​ En 2009 y 2015, la revista Foreign Policy lo incluyó en su lista de los 100 pensadores globales destacados.[4]​[5]​ El trabajo de Bostrom sobre la superinteligencia y su preocupación por el riesgo existencial que la misma representa para la humanidad en el nuevo siglo, ha llegado a influir en el pensamiento de Elon Musk y Bill Gates.[6]​[7]​[8]​ Biografía Bostrom nació un 10 de marzo de 1973 en Helsingborg, Suecia.[9]​ Desde joven le desagradó la escuela y terminó sus últimos años de instituto aprendiendo en casa, optando por educarse a sí mismo en una gran variedad de disciplinas como antropología, arte, literatura y ciencia.[10]​ Obtuvo un B.A. en filosofía, matemáticas, lógica matemática e inteligencia artificial en la Universidad de Gotemburgo y un grado de master en filosofía y física, y neurociencia computacional de la Universidad de Estocolmo y el King's College de Londres respectivamente. Mientras estudiaba en la Universidad de Estocolmo, investigó la relación entre el lenguaje y la realidad estudiando al filósofo analítico Willard Van Orman Quine.[10]​ En el año 2000 ganó un PhD en filosofía en la Escuela de Economía de Londres. Se mantuvo dos años (2000-2002) como educador en la Universidad de Yale. Bostrom ha dado consejos sobre políticas además de consultorías para un amplio rango de gobiernos y organizaciones. Fue consultor para la Oficina gubernamental de Ciencia del Reino Unido y un miembro experto para la Agenda del Consejo para Riesgos Catastróficos del Foro Económico Mundial. Es un miembro consultor de la junta del Instituto de Investigación de la Inteligencia de las Máquinas, el Instituto para el Futuro de la Vida, el Instituto de Preguntas Fundacionales en física y cosmología, y un consultor externo para el Centro para el Estudio del Riesgo Existencial de Cambridge.[11]​ Filosofía Riesgo existencial Un aspecto importante de las investigaciones de Bostrom se enfoca en el futuro de la humanidad y en los resultados a largo plazo.[12]​[13]​ Introdujo el concepto de "riesgo existencial", el cual define como el riesgo de que "un resultado adverso pudiera bien devastar el origen de la vida inteligente en la Tierra o bien restringir su potencial permanente y drásticamente". Bostrom desde posiciones transhumanistas advierte sobre los riesgos que esta puede traer y los nombra como riesgos existenciales. Además menciona algunos de los riesgos existenciales (aquellos que tienen que ver con la acción humana) Mal uso de las tecnologías. Guerras nucleares. Pandemias. Aristocracia posthumana. Mala programación de una superinteligencia. Superinteligencia autónoma que asume los valores de poder. Criogenización y superpoblación. Control del estado, de instituciones, ONG, movimientos religiosos, etc. Que no permitan ciertas aplicaciones para el mejoramiento humano (transhumanidad). Dificultades tecnológicas. Que la transhumanidad no se pueda llevar a la práctica. Agotamiento de los recursos naturales antes de que puedan ser creados artificialmente. Y reconoce como uno de los mayores riesgos, el mal uso de la tecnología, con fines hegemónicos, el consumismo y el militarismo entre otros factores, ha traído como consecuencia, la contaminación, la degradación de los ecosistemas y el agotamiento de los recursos. En el mal uso de las tecnologías, también se considera los errores humanos, que un virus se escape de un laboratorio. En el libro Riesgo catastrófico global (2008), los editores Nick Bostrom y Milan Ćirković caracterizaron la relación entre el riesgo existencial y la cada vez más amplia gama de riesgos catastróficos de talla global, y relacionaron el riesgo existencial con los efectos de la selección del observador[14]​ y la paradoja de Fermi.[15]​[16]​ En un escrito de 2013 para el periódico Global Policy, Bostrom ofrece una taxonomía del riesgo existencial y propone una reconceptualización de sustantibilidad en términos dinámicos: como una trayectoria para el desarrollo destinada a minimizar el riesgo existencial.[17]​ En 2005, Bostrom fundó el Instituto del Futuro de la Humanidad , que investiga el futuro lejano de la civilización humana. También es asesor del Centro para el Estudio del Riesgo Existencial. Superinteligencia En su libro Superinteligencia: caminos, peligros, estrategias (2014), Nick Bostrom define a la superinteligencia como "un intelectual que es mucho más listo que los mejores cerebros humanos prácticamente en cualquier campo, incluyendo la creatividad científica, sabiduría general y habilidades sociales.", además razona que con "un desempeño cognitivo excediendo enormemente el de los humanos en virtualmente todos los dominios de interés", los agentes superinteligentes podrían prometer beneficios sustanciales para la sociedad, pero plantear un significativo riesgo existencial. Por lo tanto, Bostrom asegura que es crucial que abordemos el campo de la inteligencia artificial con precaución y tomemos medidas activas para mitigar el riesgo que enfrentamos. En su libro también menciona que el verdadero reto no está tanto en la inteligencia que sean capaces de alcanzar las máquinas, sino en el desarrollo moral de nuestra especie. Al final, como ya postuló Jean-Paul Sartre, estamos condenados a ser libres. Y eso puede ser peligroso, pero también una excelente oportunidad para dar otro salto evolutivo. La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica). Se puede lograr una inteligencia artificial por fuerza bruta, o sea que dada la velocidad de la máquina pueda analizar exhaustivamente todas las posibl.... Descubre los libros populares de Nick Bostrom. Encuentra los 100 libros más populares de Nick Bostrom

.

Best Seller Nick Bostrom Libros de 2024

  • Summary of Super-Intelligence From Nick Bostrom sinopsis y comentarios

    Summary of Super-Intelligence From Nick Bostrom

    Summary Station

    Learn About The Future Of Artificial Intelligence In A Fraction Of The Time It Takes To Read The Actual Book!!!Inside your cranium is the thing that allows you to read, your brain....

  • The Age of AI sinopsis y comentarios

    The Age of AI

    Henry A. Kissinger, Eric Schmidt & Daniel Huttenlocher

    THE WAY HUMANS NAVIGATE THE WORLD IS ALTERING, FOREVER.THIS IS YOUR ESSENTIAL AI ROADMAP.AI is revolutionizing how we approach security, economics, order and even knowledge itself....

  • Life 3.0 sinopsis y comentarios

    Life 3.0

    Max Tegmark

    'This is the most important conversation of our time, and Tegmark's thoughtprovoking book will help you join it' Stephen HawkingTHE INTERNATIONAL BESTSELLER. DAILY TELEGRAPH AND TH...

  • How AI Thinks sinopsis y comentarios

    How AI Thinks

    Nigel Toon

    THE #2 TIMES BESTSELLER'Artificial intelligence is going to have a massive impact on everyone’s lives... an accessible and sensible read that helps demystify AI' Deborah Meaden, en...

  • Morality sinopsis y comentarios

    Morality

    Jonathan Sacks

    We are living through a period of cultural climate change. We have outsourced morality to the markets on the one hand, and the state on the other. The markets have brought wealth t...

  • Superminds sinopsis y comentarios

    Superminds

    Thomas W. Malone

    Is Apple conscious?Could a cyber–human system sense a potential terrorist attack?Or make diagnosing a rare and littleknown disease routine?Computers are not replacing us: they are ...

  • The Rationalist's Guide to the Galaxy sinopsis y comentarios

    The Rationalist's Guide to the Galaxy

    Tom Chivers

    'A fascinating and delightfully written book about some very smart people who may not, or may, be about to transform humanity forever' JON RONSON'Beautifully written, and with wond...

  • Not in God's Name sinopsis y comentarios

    Not in God's Name

    Jonathan Sacks

    Despite predictions of continuing secularisation, the twentyfirst century has witnessed a surge of religious extremism and violence in the name of God.In this powerful and timely b...

  • Dark Aeon sinopsis y comentarios

    Dark Aeon

    Joe Allen & Stephen K. Bannon

    Humanity Is Consumed by Relentless Transformation   Like a thief in the night, artificial intelligence has inserted itself into our lives. It makes important decisions for us ...