Eliezer Yudkowsky , la enciclopedia libre

Eliezer Yudkowsky
Información personal
Nombre de nacimiento Eliezer Shlomo Yudkowsky Ver y modificar los datos en Wikidata
Nacimiento 11 de septiembre de 1979 Ver y modificar los datos en Wikidata (44 años)
Chicago (Estados Unidos) Ver y modificar los datos en Wikidata
Nacionalidad Estadounidense
Religión Ateísmo Ver y modificar los datos en Wikidata
Información profesional
Ocupación Investigador de la inteligencia artificial, bloguero, escritor e informático teórico Ver y modificar los datos en Wikidata
Área Inteligencia artificial, Inteligencia artificial amigable, teoría de la decisión, transhumanismo y ciencias de la información Ver y modificar los datos en Wikidata
Empleador Instituto de Investigación de la Inteligencia de las Máquinas Ver y modificar los datos en Wikidata
Movimiento Altruismo eficaz Ver y modificar los datos en Wikidata
Obras notables
Sitio web www.yudkowsky.net Ver y modificar los datos en Wikidata

Eliezer Shlomo Yudkowsky (11 de septiembre de 1979) es un blogger estadounidense, escritor y defensor de la inteligencia artificial amigable.

Biografía[editar]

Yudkowsky es un residente del área de la Bahía de San Francisco.[1]​ En gran parte es autodidacta,[2]: 38  en el año 2000 cofundó la compañía no lucrativa llamada MIRI (por sus siglas en inglés, Machine Intelligence Research Institute), antes conocida como SIAI (por sus siglas en inglés, Singularity Institute for Artificial Intelligence) y sigue trabajando ahí como investigador de tiempo completo.[3]: 599 

Obra[editar]

Los intereses de Yudkowsky se enfocan en la teoría de Inteligencia Artificial para la autoconciencia, auto-modificación, la superación personal recursiva, en arquitecturas de inteligencia artificial y las teorías sobre decisión para estructuras motivacionales estables (particularmente en la IA Amigable y Voluntad Coherente Extrapolada).[3]: 420  El trabajo más reciente de Yudkowsky trata sobre la teoría de la decisión para los problemas de auto-modificación y la paradoja de Newcomb.

Yudkowsky fue, junto con Robin Hanson, uno de los principales contribuyentes del blog Overcoming Bias,[4]​ patrocinados por el Instituto del Futuro de la Humanidad de la Universidad de Oxford.En febrero de 2009, ayudó a fundar LessWrong,[5]​ un "blog de la comunidad dedicado a perfeccionar el arte de la racionalidad humana".[2]: 37  LessWrong ha sido cubierto en profundidad por el sitio web Business Insider.[6]​ Los conceptos fundamentales de LessWrong han sido referenciados en columnas del periódico inglés The Guardian.[7][8]​ este blog ha sido mencionado brevemente en los artículos relacionados con la singularidad tecnológica y el trabajo del Instituto de Investigación en Inteligencia de la Máquina (antes llamado Singularity Institute).[9]

Yudkowsky contribuyó con dos capítulos del filósofo de Oxford Nick Bostrom y en el volumen editado Global Catastrophic Risks de Milán Ćirković.[10]

Fanfiction[editar]

Yudkowsky también ha escrito varias obras de ciencia ficción y otras obras de ficción.[11]​ Su historia de ficción sobre Harry Potter, "Harry Potter y los Métodos de Racionalidad" ilustra los temas de la ciencia cognitiva y la racionalidad.[2]: 37 [12][13][14][15][16][17]​ La revista The New Yorker describió a esta obra como "la nueva versión de la historia original en un intento de explicar la magia de Harry a través del método científico."[18]

Referencias[editar]

  1. «yudkowsky.net». 
  2. a b c Singularity Rising, por James Miller
  3. a b Kurzweil, Ray (2005). The Singularity Is Near. New York, US: Viking Penguin. ISBN 0-670-03384-7. 
  4. «Overcoming Bias: About». Robin Hanson. Consultado el 1 de febrero de 2012. 
  5. «Where did Less Wrong come from? (LessWrong FAQ)». Consultado el 11 de septiembre de 2014. 
  6. Miller, James (28 de julio de 2011). «You Can Learn How To Become More Rational». Business Insider. Consultado el 25 de marzo de 2014. 
  7. Burkeman, Oliver (8 de julio de 2011). «This column will change your life: Feel the ugh and do it anyway. Can the psychological flinch mechanism be beaten?». The Guardian. Consultado el 25 de marzo de 2014. 
  8. Burkeman, Oliver (9 de marzo de 2012). «This column will change your life: asked a tricky question? Answer an easier one. We all do it, all the time. So how can we get rid of this eccentricity?». The Guardian. Consultado el 25 de marzo de 2014. 
  9. Tiku, Natasha (25 de julio de 2012). «Faith, Hope, and Singularity: Entering the Matrix with New York's Futurist Set It's the end of the world as we know it, and they feel fine.». BetaBeat. Archivado desde el original el 12 de marzo de 2014. Consultado el 25 de marzo de 2014. 
  10. Bostrom, Nick; Ćirković, Milan M., eds. (2008). Global Catastrophic Risks. Oxford, UK: Oxford University Press. pp. 91–119, 308–345. ISBN 978-0-19-857050-9. 
  11. [1]
  12. David Brin (21 de junio de 2010). «CONTRARY BRIN: A secret of college life... plus controversies and science!». Davidbrin.blogspot.com. Consultado el 31 de agosto de 2012. "'Harry Potter' and the Key to Immortality", Daniel Snyder, The Atlantic
  13. Authors (2 de abril de 2012). «Rachel Aaron interview (Abril 2012)». Fantasybookreview.co.uk. Archivado desde el original el 26 de noviembre de 2013. Consultado el 31 de agosto de 2012. 
  14. «Civilian Reader: An Interview with Rachel Aaron». Civilian-reader.blogspot.com. 4 de mayo de 2011. Consultado el 31 de agosto de 2012. 
  15. Hanson, Robin (31 de octubre de 2010). «Hyper-Rational Harry». Overcoming Bias. Consultado el 31 de agosto de 2012. 
  16. Swartz, Aaron. «The 2011 Review of Books (Aaron Swartz's Raw Thought)». archive.org. Archivado desde el original el 16 de marzo de 2013. Consultado el 10 de abril de 2013. 
  17. «Harry Potter and the Methods of Rationality». fanfiction.net. 28 de febrero de 2010. Consultado el 29 de diciembre de 2014. 
  18. pg 54, "No Death, No Taxes: The libertarian futurism of a Silicon Valley billionaire"

Algunas publicaciones[editar]

Enlaces externos[editar]