Eliezer Yudkowsky
Date personale
Nume la naștereEliezer Shlomo Yudkowsky Modificați la Wikidata
Născut (44 de ani)[1] Modificați la Wikidata
Chicago, Illinois, SUA Modificați la Wikidata
Cetățenie Statele Unite ale Americii Modificați la Wikidata
Religieateism[2] Modificați la Wikidata
Ocupațiecercetător al inteligenței artificiale[*]
blogger
scriitor
informatician Modificați la Wikidata
Limbi vorbitelimba engleză[4] Modificați la Wikidata
Activitate
Domeniuinteligență artificială[3]
inteligență artificială prietenoasă[*]
teoria deciziei[*]
Transumanism
știința informației[*][3]  Modificați la Wikidata
InstituțieMachine Intelligence Research Institute[*][[Machine Intelligence Research Institute (American non-profit organization)|​]]  Modificați la Wikidata
Cunoscut pentruLess Wrong[*][[Less Wrong (rationality-focused community blog)|​]]
Harry Potter and the Methods of Rationality[*][[Harry Potter and the Methods of Rationality (fan fiction story based on Harry Potter)|​]]  Modificați la Wikidata
Prezență online

Eliezer Shlomo Yudkowsky (n. , Chicago, Illinois, SUA) este un cercetător și scriitor american în domeniul inteligenței artificiale (IA) cunoscut mai ales pentru popularizarea ideii de inteligență artificială prietenoasă.[5][6] Este cofondator[7] și cercetător al Machine Intelligence Research Institute (MIRI), un organism de cercetare privat nonprofit cu sediul în Berkeley, California.[8] Munca sa asupra perspectivei unei explozii de inteligență a fost o influență de cartea lui Nick Bostrom, Superinteligența. Căi, pericole, strategii.[9] Un autodidact,[10] Yudkowsky nu a studiat la liceu sau facultate.[11]

Inteligență artificială modificare

În scenariul exploziei de inteligență propus de I. J. Good, sistemele de inteligență artificială auto-îmbunătățite recursiv trec rapid de la inteligența generală subumană la superinteligentă. Cartea lui Nick Bostrom din 2014 Superinteligența. Căi, pericole, strategii prezintă argumentul lui Good în detaliu, citând în același timp scrierile lui Yudkowsky cu privire la riscul ca antropomorfizarea sistemelor avansate de IA să determine oamenii să înțeleagă greșit natura unei explozii de informații. „IA ar putea face un salt aparent puternic în inteligență doar ca rezultat al antropomorfismului, al tendinței umane de a gândi în termeni ca „idiotul satului” și „Einstein” la capetele extreme ale scalei inteligenței, în loc de puncte aproape imperceptibile pe scara minților -în general." [5][7][12]

Scrieri modificare

Între 2006 și 2009, Yudkowsky și Robin Hanson au fost principalii contribuabili ai Overcoming Bias, un blog de științe cognitive și sociale sponsorizat de Institutul Future of Humanity al Universității Oxford. În februarie 2009, Yudkowsky a fondat LessWrong, un „blog dedicat rafinării artei raționalității umane”.[13] [14] Overcoming Bias a rămas de atunci blogul personal al lui Hanson.

Peste 300 de postări pe blog ale lui Yudkowsky despre filozofie și știință (scrise inițial pe LessWrong și Overcoming Bias) au fost lansate ca o carte electronică intitulată Rationality: From AI to Zombies de către Machine Intelligence Research Institute (MIRI) în 2015.[15] MIRI a publicat, de asemenea, Inadequate Equilibria, cartea electronică a lui Yudkowsky din 2017 despre subiectul ineficiențelor societale. [16]

Yudkowsky a scris, de asemenea, mai multe opere de ficțiune. Romanul său de fan fiction, Harry Potter and the Methods of Rationality (Harry Potter și metodele raționalității), folosește elemente ale intrigii din seria Harry Potter a lui J. K. Rowling pentru a ilustra subiecte din știință.[13][17] The New Yorker a descris Harry Potter și metodele raționalității ca pe o reluare a originalului lui Rowling „în încercarea de a explica vrăjitoria lui Harry prin metoda științifică”.[18]

Publicații academice modificare

  • Yudkowsky, Eliezer (). „Levels of Organization in General Intelligence” (PDF). Artificial General Intelligence. Berlin: Springer. 
  • Yudkowsky, Eliezer (). „Cognitive Biases Potentially Affecting Judgement of Global Risks” (PDF). În Bostrom, Nick; Ćirković, Milan. Global Catastrophic Risks. Oxford University Press. ISBN 978-0199606504. 
  • Yudkowsky, Eliezer (). „Artificial Intelligence as a Positive and Negative Factor in Global Risk” (PDF). În Bostrom, Nick; Ćirković, Milan. Global Catastrophic Risks. Oxford University Press. ISBN 978-0199606504. 
  • Yudkowsky, Eliezer (). „Complex Value Systems in Friendly AI” (PDF). Artificial General Intelligence: 4th International Conference, AGI 2011, Mountain View, CA, USA, August 3–6, 2011. Berlin: Springer. 
  • Yudkowsky, Eliezer (). „Friendly Artificial Intelligence”. În Eden, Ammon; Moor, James; Søraker, John; Steinhart, Eric. Singularity Hypotheses: A Scientific and Philosophical Assessment. The Frontiers Collection. Berlin: Springer. pp. 181–195. doi:10.1007/978-3-642-32560-1_10. ISBN 978-3-642-32559-5. 
  • Bostrom, Nick; Yudkowsky, Eliezer (). „The Ethics of Artificial Intelligence” (PDF). În Frankish, Keith; Ramsey, William. The Cambridge Handbook of Artificial Intelligence. New York: Cambridge University Press. ISBN 978-0-521-87142-6. 
  • LaVictoire, Patrick; Fallenstein, Benja; Yudkowsky, Eliezer; Bárász, Mihály; Christiano, Paul; Herreshoff, Marcello (). „Program Equilibrium in the Prisoner's Dilemma via Löb's Theorem”. Multiagent Interaction without Prior Coordination: Papers from the AAAI-14 Workshop. AAAI Publications. Arhivat din original la . Accesat în . 
  • Soares, Nate; Fallenstein, Benja; Yudkowsky, Eliezer (). „Corrigibility” (PDF). AAAI Workshops: Workshops at the Twenty-Ninth AAAI Conference on Artificial Intelligence, Austin, TX, January 25–26, 2015. AAAI Publications. 

Referințe modificare

  1. ^ a b People by Last Names: Y (în engleză), Notable Names Database, accesat în  
  2. ^ http://lesswrong.com/lw/uk/beyond_the_reach_of_god/  Lipsește sau este vid: |title= (ajutor)
  3. ^ a b Czech National Authority Database, accesat în  
  4. ^ Czech National Authority Database, accesat în  
  5. ^ a b Russell, Stuart; Norvig, Peter (). Artificial Intelligence: A Modern Approach. Prentice Hall. ISBN 978-0-13-604259-4. 
  6. ^ Leighton, Jonathan (). The Battle for Compassion: Ethics in an Apathetic Universe. Algora. ISBN 978-0-87586-870-7. 
  7. ^ a b Dowd, Maureen. „Elon Musk's Billion-Dollar Crusade to Stop the A.I. Apocalypse”. Vanity Fair (în engleză). Accesat în . 
  8. ^ Kurzweil, Ray (). The Singularity Is Near. New York City: Viking Penguin. ISBN 978-0-670-03384-3. 
  9. ^ Ford, Paul (). „Our Fear of Artificial Intelligence”. MIT Technology Review (în engleză). Accesat în . 
  10. ^ Matthews, Dylan; Pinkerton, Byrd (). „He co-founded Skype. Now he's spending his fortune on stopping dangerous AI”. Vox. 
  11. ^ Saperstein, Gregory (). „5 Minutes With a Visionary: Eliezer Yudkowsky”. 
  12. ^ Bostrom, Nick (). Superintelligence: Paths, Dangers, Strategies. ISBN 978-0199678112. 
  13. ^ a b Miller, James (). Singularity Rising. BenBella Books, Inc. ISBN 978-1936661657. 
  14. ^ Miller, James (). „You Can Learn How To Become More Rational”. Business Insider. Accesat în . 
  15. ^ Miller, James D. „Rifts in Rationality - New Rambler Review”. newramblerreview.com (în engleză). Accesat în . 
  16. ^ Machine Intelligence Research Institute. „Inadequate Equilibria: Where and How Civilizations Get Stuck”. 
  17. ^ "'Harry Potter' and the Key to Immortality", Daniel Snyder, The Atlantic
  18. ^ Packer, George (). „No Death, No Taxes: The Libertarian Futurism of a Silicon Valley Billionaire”. The New Yorker: 54. Accesat în . 

Vezi și modificare

Legături externe modificare