Yapay genel zekâdan kaynaklanan varoluşsal risk
Makale serisidir |
Yapay zekâ |
---|
Yapay genel zekadan kaynaklanan varoluşsal risk, yapay genel zekadaki önemli ilerlemenin insan neslinin tükenmesine veya geri dönüşü olmayan küresel felakete yol açabileceği fikridir.[1][2][3]
Bir argüman şu şekildedir: insanoğlu diğer türlere hükmetmektedir çünkü insan beyni diğer hayvanlarda bulunmayan ayırt edici yeteneklere sahiptir. Eğer yapay zeka genel zeka bakımından insanlığı aşar ve süper zeka haline gelirse, o zaman kontrol edilmesi zor ya da imkansız hale gelebilir. Tıpkı dağ gorilinin kaderinin insanların iyi niyetine bağlı olması gibi, insanlığın kaderi de gelecekteki bir süper zeki yapay zekanın eylemlerine bağlı olabilir.[4]
Yapay zeka nedeniyle varoluşsal felaketin akla yatkınlığı geniş çapta tartışılmaktadır ve kısmen yapay genel zeka veya süper zekanın ulaşılabilir olup olmadığına, tehlikeli yetenek ve davranışların ortaya çıkma hızına[5] ve yapay zekanın kontrolü devralınması için pratik senaryoların mevcut olup olmadığına bağlıdır.[6] Süper zeka hakkındaki endişeler, Geoffrey Hinton,[7] Yoshua Bengio,[8] Alan Turing, [a] Elon Musk,[11] ve OpenAI CEO'su Sam Altman gibi önde gelen bilgisayar bilimcileri ve teknoloji CEO'ları tarafından dile getirilmiştir.[12] 2022 yılında yapay zeka araştırmacıları arasında yapılan ve %17 yanıt oranına sahip bir ankete göre, katılımcıların çoğunluğu yapay zekayı kontrol edemememizin varoluşsal bir felakete neden olma ihtimalinin %10 veya daha fazla olduğuna inanmaktadır.[13][14] 2023 yılında yüzlerce yapay zeka uzmanı ve diğer kayda değer isimler "Yapay zeka kaynaklı yok olma riskinin azaltılması, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçekli risklerle birlikte küresel bir öncelik olmalıdır." şeklinde bir bildiri imzaladı.[15] Yapay zeka risklerine ilişkin artan endişelerin ardından, Birleşik Krallık başbakanı Rishi Sunak [16] ve Birleşmiş Milletler Genel Sekreteri António Guterres [17] gibi liderler, küresel yapay zeka düzenlemelerine daha fazla odaklanılması çağrısında bulundu.
İki endişe kaynağı da yapay zeka kontrolü ve uyum sorunlarından kaynaklanmaktadır: süper zeki bir makineyi kontrol etmek veya ona insanla uyumlu değerler aşılamak oldukça güç olabilir. Pek çok araştırmacı, süper zeki bir makinenin kendisini devre dışı bırakma ya da hedeflerini değiştirme girişimlerine karşı direneceğine, çünkü bunun mevcut hedeflerini gerçekleştirmesini önleyeceğine inanmaktadır. Bir süper zekayı, önemli insani değerler ve kısıtlamaların tamamıyla uyumlu hale getirmek son derece zor olacaktır.[1][18][19] Buna karşılık, bilgisayar bilimcisi Yann LeCun gibi şüpheciler, süper zeki makinelerin kendilerini koruma arzusuna sahip olmayacağını savunmaktadır.[20]
Üçüncü bir endişe kaynağı ise ani bir "zeka patlamasının" hazırlıksız bir insan ırkını gafil avlayabileceğidir. Bu tür senaryolar, yaratıcılarından daha zeki olan bir yapay zekanın, kendisini katlanarak artan bir oranda özyinelemeli olarak geliştirebileceği ve işleyicilerinin ve toplumun genelinin kontrol edemeyeceği kadar hızlı gelişebileceği olasılığını göz önünde bulundurmaktadır.[1][18] Deneyimsel olarak, AlphaZero'nun kendi kendine Go oynamayı öğrenmesi gibi örnekler, alana özgü yapay zeka sistemlerinin, temel mimarilerini değiştirmeyi içermemesine rağmen, bazen yetersiz insan yeteneğinden süper insan yeteneğine çok hızlı bir şekilde ilerleyebileceğini göstermektedir.[21]
Ayrıca bakınız
[değiştir | kaynağı değiştir]- Olasılığa başvurma
- Yapay zeka güvenliği
- Butleryan Cihadı
- Etkili özgecilik
- Yapay zeka felsefesi
- Acı riskleri
Kaynakça
[değiştir | kaynağı değiştir]- ^ a b c Russell, Stuart; Norvig, Peter (2009). "26.3: The Ethics and Risks of Developing Artificial Intelligence". Artificial Intelligence: A Modern Approach. Prentice Hall. ISBN 978-0-13-604259-4.
- ^ Bostrom, Nick (2002). "Existential risks". Journal of Evolution and Technology. 9 (1): 1-31.
- ^ Turchin, Alexey; Denkenberger, David (3 Mayıs 2018). "Classification of global catastrophic risks connected with artificial intelligence". AI & Society. 35 (1): 147-163. doi:10.1007/s00146-018-0845-5. ISSN 0951-5666.
- ^ Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies. First. Oxford University Press. ISBN 978-0-19-967811-2.
- ^ Vynck, Gerrit De (23 Mayıs 2023). "The debate over whether AI will destroy us is dividing Silicon Valley". Washington Post (İngilizce). ISSN 0190-8286. 2 Haziran 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 27 Temmuz 2023.
- ^ Metz, Cade (10 Haziran 2023). "How Could A.I. Destroy Humanity?". The New York Times (İngilizce). ISSN 0362-4331. 11 Kasım 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 27 Temmuz 2023.
- ^ ""Godfather of artificial intelligence" weighs in on the past and potential of AI". www.cbsnews.com (İngilizce). 25 Mart 2023. 15 Nisan 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 10 Nisan 2023.
- ^ "How Rogue AIs may Arise". yoshuabengio.org (İngilizce). 26 Mayıs 2023. 26 Mayıs 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 26 Mayıs 2023.
- ^ Turing, Alan (1951). Intelligent machinery, a heretical theory (Speech). Lecture given to '51 Society'. Manchester: The Turing Digital Archive. 26 Eylül 2022 tarihinde kaynağından arşivlendi. Erişim tarihi: 22 Temmuz 2022.
- ^ Turing, Alan (15 Mayıs 1951). "Can digital computers think?". Automatic Calculating Machines. § 2. Can digital computers think?. BBC.
- ^ Parkin, Simon (14 Haziran 2015). "Science fiction no more? Channel 4's Humans and our rogue AI obsessions". The Guardian (İngilizce). 5 Şubat 2018 tarihinde kaynağından arşivlendi. Erişim tarihi: 5 Şubat 2018.
- ^ Jackson, Sarah. "The CEO of the company behind AI chatbot ChatGPT says the worst-case scenario for artificial intelligence is 'lights out for all of us'". Business Insider (İngilizce). 11 Temmuz 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 10 Nisan 2023.
- ^ "The AI Dilemma". www.humanetech.com (İngilizce). 10 Nisan 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 10 Nisan 2023.
50% of AI researchers believe there's a 10% or greater chance that humans go extinct from our inability to control AI.
- ^ "2022 Expert Survey on Progress in AI". AI Impacts (İngilizce). 4 Ağustos 2022. 23 Kasım 2022 tarihinde kaynağından arşivlendi. Erişim tarihi: 10 Nisan 2023.
- ^ Roose, Kevin (30 Mayıs 2023). "A.I. Poses 'Risk of Extinction,' Industry Leaders Warn". The New York Times (İngilizce). ISSN 0362-4331. 31 Mayıs 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 3 Haziran 2023.
- ^ Sunak, Rishi (14 Haziran 2023). "Rishi Sunak Wants the U.K. to Be a Key Player in Global AI Regulation". Time. 11 Temmuz 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 20 Şubat 2024.
- ^ Fung, Brian (18 Temmuz 2023). "UN Secretary General embraces calls for a new UN agency on AI in the face of 'potentially catastrophic and existential risks'". CNN Business (İngilizce). 20 Temmuz 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 20 Temmuz 2023.
- ^ a b Yudkowsky, Eliezer (2008). "Artificial Intelligence as a Positive and Negative Factor in Global Risk" (PDF). Global Catastrophic Risks: 308-345. 2 Mart 2013 tarihinde kaynağından (PDF) arşivlendi. Erişim tarihi: 27 Ağustos 2018.
- ^ "Research Priorities for Robust and Beneficial Artificial Intelligence" (PDF). AI Magazine. Association for the Advancement of Artificial Intelligence: 105-114. 2015. arXiv:1602.03506 $2. 4 Ağustos 2019 tarihinde kaynağından (PDF) arşivlendi. Erişim tarihi: 10 Ağustos 2019., cited in "AI Open Letter - Future of Life Institute". Future of Life Institute. January 2015. 10 Ağustos 2019 tarihinde kaynağından arşivlendi. Erişim tarihi: 9 Ağustos 2019.
- ^ Dowd, Maureen (April 2017). "Elon Musk's Billion-Dollar Crusade to Stop the A.I. Apocalypse". The Hive (İngilizce). 26 Temmuz 2018 tarihinde kaynağından arşivlendi. Erişim tarihi: 27 Kasım 2017.
- ^ "AlphaGo Zero: Starting from scratch". www.deepmind.com (İngilizce). 28 Temmuz 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 28 Temmuz 2023.
- ^ In a 1951 lecture[9] Turing argued that "It seems probable that once the machine thinking method had started, it would not take long to outstrip our feeble powers. There would be no question of the machines dying, and they would be able to converse with each other to sharpen their wits. At some stage therefore we should have to expect the machines to take control, in the way that is mentioned in Samuel Butler's Erewhon." Also in a lecture broadcast on the BBC[10] he expressed the opinion: "If a machine can think, it might think more intelligently than we do, and then where should we be? Even if we could keep the machines in a subservient position, for instance by turning off the power at strategic moments, we should, as a species, feel greatly humbled. . . . This new danger . . . is certainly something which can give us anxiety."