İçeriğe atla

Yapay genel zekâdan kaynaklanan varoluşsal risk

Yapay genel zekadan kaynaklanan varoluşsal risk, yapay genel zekadaki önemli ilerlemenin insan neslinin tükenmesine veya geri dönüşü olmayan küresel felakete yol açabileceği fikridir.[1][2][3]

Bir argüman şu şekildedir: insanoğlu diğer türlere hükmetmektedir çünkü insan beyni diğer hayvanlarda bulunmayan ayırt edici yeteneklere sahiptir. Eğer yapay zeka genel zeka bakımından insanlığı aşar ve süper zeka haline gelirse, o zaman kontrol edilmesi zor ya da imkansız hale gelebilir. Tıpkı dağ gorilinin kaderinin insanların iyi niyetine bağlı olması gibi, insanlığın kaderi de gelecekteki bir süper zeki yapay zekanın eylemlerine bağlı olabilir.[4]

Yapay zeka nedeniyle varoluşsal felaketin akla yatkınlığı geniş çapta tartışılmaktadır ve kısmen yapay genel zeka veya süper zekanın ulaşılabilir olup olmadığına, tehlikeli yetenek ve davranışların ortaya çıkma hızına[5] ve yapay zekanın kontrolü devralınması için pratik senaryoların mevcut olup olmadığına bağlıdır.[6] Süper zeka hakkındaki endişeler, Geoffrey Hinton,[7] Yoshua Bengio,[8] Alan Turing, [a] Elon Musk,[11] ve OpenAI CEO'su Sam Altman gibi önde gelen bilgisayar bilimcileri ve teknoloji CEO'ları tarafından dile getirilmiştir.[12] 2022 yılında yapay zeka araştırmacıları arasında yapılan ve %17 yanıt oranına sahip bir ankete göre, katılımcıların çoğunluğu yapay zekayı kontrol edemememizin varoluşsal bir felakete neden olma ihtimalinin %10 veya daha fazla olduğuna inanmaktadır.[13][14] 2023 yılında yüzlerce yapay zeka uzmanı ve diğer kayda değer isimler "Yapay zeka kaynaklı yok olma riskinin azaltılması, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçekli risklerle birlikte küresel bir öncelik olmalıdır." şeklinde bir bildiri imzaladı.[15] Yapay zeka risklerine ilişkin artan endişelerin ardından, Birleşik Krallık başbakanı Rishi Sunak [16] ve Birleşmiş Milletler Genel Sekreteri António Guterres [17] gibi liderler, küresel yapay zeka düzenlemelerine daha fazla odaklanılması çağrısında bulundu.

İki endişe kaynağı da yapay zeka kontrolü ve uyum sorunlarından kaynaklanmaktadır: süper zeki bir makineyi kontrol etmek veya ona insanla uyumlu değerler aşılamak oldukça güç olabilir. Pek çok araştırmacı, süper zeki bir makinenin kendisini devre dışı bırakma ya da hedeflerini değiştirme girişimlerine karşı direneceğine, çünkü bunun mevcut hedeflerini gerçekleştirmesini önleyeceğine inanmaktadır. Bir süper zekayı, önemli insani değerler ve kısıtlamaların tamamıyla uyumlu hale getirmek son derece zor olacaktır.[1][18][19] Buna karşılık, bilgisayar bilimcisi Yann LeCun gibi şüpheciler, süper zeki makinelerin kendilerini koruma arzusuna sahip olmayacağını savunmaktadır.[20]

Üçüncü bir endişe kaynağı ise ani bir "zeka patlamasının" hazırlıksız bir insan ırkını gafil avlayabileceğidir. Bu tür senaryolar, yaratıcılarından daha zeki olan bir yapay zekanın, kendisini katlanarak artan bir oranda özyinelemeli olarak geliştirebileceği ve işleyicilerinin ve toplumun genelinin kontrol edemeyeceği kadar hızlı gelişebileceği olasılığını göz önünde bulundurmaktadır.[1][18] Deneyimsel olarak, AlphaZero'nun kendi kendine Go oynamayı öğrenmesi gibi örnekler, alana özgü yapay zeka sistemlerinin, temel mimarilerini değiştirmeyi içermemesine rağmen, bazen yetersiz insan yeteneğinden süper insan yeteneğine çok hızlı bir şekilde ilerleyebileceğini göstermektedir.[21]

Ayrıca bakınız

Kaynakça

  1. ^ a b c Russell, Stuart; Norvig, Peter (2009). "26.3: The Ethics and Risks of Developing Artificial Intelligence". Artificial Intelligence: A Modern Approach. Prentice Hall. ISBN 978-0-13-604259-4. 
  2. ^ Bostrom, Nick (2002). "Existential risks". Journal of Evolution and Technology. 9 (1): 1-31. 
  3. ^ Turchin, Alexey; Denkenberger, David (3 Mayıs 2018). "Classification of global catastrophic risks connected with artificial intelligence". AI & Society. 35 (1): 147-163. doi:10.1007/s00146-018-0845-5. ISSN 0951-5666. 
  4. ^ Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies. First. Oxford University Press. ISBN 978-0-19-967811-2. 
  5. ^ Vynck, Gerrit De (23 Mayıs 2023). "The debate over whether AI will destroy us is dividing Silicon Valley". Washington Post (İngilizce). ISSN 0190-8286. 2 Haziran 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 27 Temmuz 2023. 
  6. ^ Metz, Cade (10 Haziran 2023). "How Could A.I. Destroy Humanity?". The New York Times (İngilizce). ISSN 0362-4331. 11 Kasım 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 27 Temmuz 2023. 
  7. ^ ""Godfather of artificial intelligence" weighs in on the past and potential of AI". www.cbsnews.com (İngilizce). 25 Mart 2023. 15 Nisan 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 10 Nisan 2023. 
  8. ^ "How Rogue AIs may Arise". yoshuabengio.org (İngilizce). 26 Mayıs 2023. 26 Mayıs 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 26 Mayıs 2023. 
  9. ^ Turing, Alan (1951). Intelligent machinery, a heretical theory (Speech). Lecture given to '51 Society'. Manchester: The Turing Digital Archive. 26 Eylül 2022 tarihinde kaynağından arşivlendi. Erişim tarihi: 22 Temmuz 2022. 
  10. ^ Turing, Alan (15 Mayıs 1951). "Can digital computers think?". Automatic Calculating Machines. § 2. Can digital computers think?. BBC. 
  11. ^ Parkin, Simon (14 Haziran 2015). "Science fiction no more? Channel 4's Humans and our rogue AI obsessions". The Guardian (İngilizce). 5 Şubat 2018 tarihinde kaynağından arşivlendi. Erişim tarihi: 5 Şubat 2018. 
  12. ^ Jackson, Sarah. "The CEO of the company behind AI chatbot ChatGPT says the worst-case scenario for artificial intelligence is 'lights out for all of us'". Business Insider (İngilizce). 11 Temmuz 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 10 Nisan 2023. 
  13. ^ "The AI Dilemma". www.humanetech.com (İngilizce). 10 Nisan 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 10 Nisan 2023. 50% of AI researchers believe there's a 10% or greater chance that humans go extinct from our inability to control AI. 
  14. ^ "2022 Expert Survey on Progress in AI". AI Impacts (İngilizce). 4 Ağustos 2022. 23 Kasım 2022 tarihinde kaynağından arşivlendi. Erişim tarihi: 10 Nisan 2023. 
  15. ^ Roose, Kevin (30 Mayıs 2023). "A.I. Poses 'Risk of Extinction,' Industry Leaders Warn". The New York Times (İngilizce). ISSN 0362-4331. 31 Mayıs 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 3 Haziran 2023. 
  16. ^ Sunak, Rishi (14 Haziran 2023). "Rishi Sunak Wants the U.K. to Be a Key Player in Global AI Regulation". Time. 11 Temmuz 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 20 Şubat 2024. 
  17. ^ Fung, Brian (18 Temmuz 2023). "UN Secretary General embraces calls for a new UN agency on AI in the face of 'potentially catastrophic and existential risks'". CNN Business (İngilizce). 20 Temmuz 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 20 Temmuz 2023. 
  18. ^ a b Yudkowsky, Eliezer (2008). "Artificial Intelligence as a Positive and Negative Factor in Global Risk" (PDF). Global Catastrophic Risks: 308-345. 2 Mart 2013 tarihinde kaynağından (PDF) arşivlendi. Erişim tarihi: 27 Ağustos 2018. 
  19. ^ "Research Priorities for Robust and Beneficial Artificial Intelligence" (PDF). AI Magazine. Association for the Advancement of Artificial Intelligence: 105-114. 2015. arXiv:1602.03506 $2. 4 Ağustos 2019 tarihinde kaynağından (PDF) arşivlendi. Erişim tarihi: 10 Ağustos 2019. , cited in "AI Open Letter - Future of Life Institute". Future of Life Institute. January 2015. 10 Ağustos 2019 tarihinde kaynağından arşivlendi. Erişim tarihi: 9 Ağustos 2019. 
  20. ^ Dowd, Maureen (April 2017). "Elon Musk's Billion-Dollar Crusade to Stop the A.I. Apocalypse". The Hive (İngilizce). 26 Temmuz 2018 tarihinde kaynağından arşivlendi. Erişim tarihi: 27 Kasım 2017. 
  21. ^ "AlphaGo Zero: Starting from scratch". www.deepmind.com (İngilizce). 28 Temmuz 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 28 Temmuz 2023. 
  1. ^ In a 1951 lecture[9] Turing argued that "It seems probable that once the machine thinking method had started, it would not take long to outstrip our feeble powers. There would be no question of the machines dying, and they would be able to converse with each other to sharpen their wits. At some stage therefore we should have to expect the machines to take control, in the way that is mentioned in Samuel Butler's Erewhon." Also in a lecture broadcast on the BBC[10] he expressed the opinion: "If a machine can think, it might think more intelligently than we do, and then where should we be? Even if we could keep the machines in a subservient position, for instance by turning off the power at strategic moments, we should, as a species, feel greatly humbled. . . . This new danger . . . is certainly something which can give us anxiety."

İlgili Araştırma Makaleleri

<span class="mw-page-title-main">John McCarthy (bilgisayar bilimci)</span> Amerikalı bilgisayar bilimci ve bilişsel bilimci

John McCarthy, Amerikalı bilgisayar bilimci ve bilişsel bilimci. Yapay zekâ terimini ve Lisp programalama dilini icat edenlerden biri. Lisp programlama dilini geliştirdi. ALGOL dil yapısını önemli ölçüde etkiledi. Zaman paylaşımı yöntemini yaygınlaştırdı. Çöp toplama metodunu icat etti ve ilk yapay zekanın geliştirilmesinde büyük bir etkisi oldu.

<span class="mw-page-title-main">Yapay zekâ</span> insani zekaya sahip makine ve yazılım geliştiren bilgisayar bilimleri dalı

Yapay zekâ ya da kısaca YZ,, insanlar da dahil olmak üzere hayvanlar tarafından, doğal zekânın aksine makineler tarafından görüntülenen zekâ çeşididir. İlk ve ikinci kategoriler arasındaki ayrım genellikle seçilen kısaltmayla ortaya çıkar. Güçlü yapay zeka genellikle Yapay genel zekâ olarak etiketlenirken, doğal zekayı taklit etme girişimleri yapay biyolojik zekâ olarak adlandırılır. Önde gelen yapay zeka ders kitapları, alanı zeki etmenlerin çalışması olarak tanımlar: Çevresini algılayan ve hedeflerine başarıyla ulaşma şansını en üst düzeye çıkaran eylemleri gerçekleştiren herhangi bir cihaz. Halk arasında, yapay zekâ kavramı genellikle insanların insan zihni ile ilişkilendirdiği öğrenme ve problem çözme gibi bilişsel eylemleri taklit eden makineleri tanımlamak için kullanılır.

<span class="mw-page-title-main">Makine öğrenimi</span> algoritmaların ve istatistiksel modellerin kullanımıyla bilgisayarların yapacakları işleri kendileri çözebilmeleri

Makine öğrenimi (ML), veriden öğrenebilen ve görünmeyen verilere genelleştirebilen ve dolayısıyla açık talimatlar olmadan görevleri yerine getirebilen istatistiksel algoritmaların geliştirilmesi ve incelenmesiyle ilgilenen, yapay zekâda akademik bir disiplindir. Makine öğrenimi, bilgisayarların deneyimlerinden öğrenerek karmaşık görevleri otomatikleştirmeyi sağlayan bir yapay zeka alanıdır. Bu, veri analizi yaparak örüntüler tespit etme ve tahminlerde bulunma yeteneğine dayanır. Son zamanlarda yapay sinir ağları, performans açısından önceki birçok yaklaşımı geride bırakmayı başardı.

<span class="mw-page-title-main">OpenAI</span> yapay zekâ araştırma şirketi

OpenAI, ABD merkezli yapay zekâ araştırma şirketi. Şirketin genel amacı insanlığa fayda sağlayabilecek yapay zekâ hakkında araştırma yapmaktır. 2015 yılının sonlarında San Francisco'da kurulan şirket, patentlerini ve araştırmalarını halka açık hale getirerek diğer kurum ve araştırmacılarla “serbest iş birliği yapmayı” amaçlamaktadır. Elon Musk ve Sam Altman, yapay genel zekâdan kaynaklanan varoluşsal risk endişelerinden dolayı bu şirketi kurduklarını açıklamıştır. Organizasyon 2015 yılında Sam Altman, Reid Hoffman, Jessica Livingston, Elon Musk, Ilya Sutskever, Peter Thiel ve diğerleri tarafından San Francisco’da kurulmuş ve toplamda 1 milyar dolar bağışta bulunulmuşlardır. Musk 2018 yılında yönetim kurulundan istifa etmiş ancak bağışçı olarak kalmıştır. Microsoft 2019 yılında OpenAI LP’ye 1 milyar dolarlık bir yatırım sağlamış ve Ocak 2023’te ikinci birçok yıllık yatırım sağlamıştır; bu ikinci yatırımın 10 milyar dolar olduğu bildirilmektedir. ChatGPT yazılı cevap veren botun yapımı da OpenAI’a aittir.

<span class="mw-page-title-main">Yapay genel zekâ</span>

Yapay genel zeka (YGZ), bir insanın yapabileceği herhangi bir zihinsel görevi başarıyla gerçekleştirebilecek bir makinenin zekasıdır. Günümüzdeki bazı yapay zeka araştırmalarının temel amacıdır ve bilimkurgu ve fütüroloji'de de ortak bir konudur. Bazı araştırmacılar Yapay genel zekâyı "güçlü yapay zekâ", "tam yapay zekâ" veya bir makinenin "genel akıllı eylem" gerçekleştirme kabiliyeti olarak adlandırmaktadır; diğerleri ise sadece bilinci deneyimleyen makineler için "güçlü yapay zekâ" tabirini kullanmaktadır.

<span class="mw-page-title-main">Geoffrey Hinton</span> İngiliz-Kanadalı bilgisayar uzmanı ve psikolog

Geoffrey Everest Hinton, İngiliz-Kanadalı bilişsel ruhbilimci ve bilgisayar bilimcisi. Yapay sinir ağları konusundaki çalışmalarıyla tanınan Hinton 2013'te Google Brain projesine katılmıştır. 2018 Turing Ödülü'nü Yoshua Bengio ve Yann LeCun'la birlikte almaya hak kazanmıştır.

<span class="mw-page-title-main">Yapay zekâ etiği</span>

Yapay zekâ etiği, robotlara ve diğer yapay zekalı varlıklara özgü teknoloji etiğinin bir parçasıdır. Yapay zekalı varlıkları tasarlarken, inşa ederken, kullanırken ve onlara karşı davranırken insanların etik davranışları ile ilgili bir roboetiğe ve yapay ahlaki etkenlerin ahlaki davranışlarıyla ilgilenen makine etiği şeklinde ikiye ayrılabilir. Yapay genel zekâlara (YGZ) ilişkin olarak, tam etik aracı olan YGZ'lerin mevcut yasal ve sosyal çerçevelerle bütünleştirilmesine yönelik yaklaşımlar üzerinde ön çalışmalar yapılmıştır. Bu yaklaşımlar yasal konumlarının ve haklarının iki yönlü olarak ele alınmasına odaklanmıştır.

Xiaoice Microsoft'un Asya ofisi tarafından duygusal hesaplamayı temel alarak geliştirilen yapay zeka sistemidir.

<span class="mw-page-title-main">Dartmouth Konferansı</span>

Dartmouth Yapay Zeka Yaz Araştırma Projesi, bir alan olarak yapay zekanın kurucu olayı olarak kabul edilen 1956 yaz çalıştayıdır.

<span class="mw-page-title-main">Sağlık hizmetlerinde yapay zekâ</span>

Sağlık hizmetlerinde yapay zekâ, karmaşık tıbbî ve sağlık hizmetleri verilerinin analizinde, insan bilişini taklit etmek için makine öğrenimi algoritmalarını, yazılımlarını veya yapay zekâyı (AI) tanımlamak için kullanılan kapsamlı bir terimdir. Özellikle, AI, bilgisayar algoritmalarının sonuçları yalnızca giriş verilerine göre yaklaşık olarak tahmin etme yeteneğidir.

<span class="mw-page-title-main">Yapay zeka etkisi</span>

Yapay zeka etkisi ; izleyiciler bir yapay zeka programının davranışını gerçek zeka olmadığını savunmaya çalıştığında ortaya çıkmaktadır.

Acı riskleri, "suffering risks" ya da kısaca s-risks olarak bilinen kavramın dilimizdeki karşılığıdır. Acı riskleri, astronomik oranda ızdırap meydana getirme potansiyeli olan gelecek olaylara denir. Bu olaylar dünya tarihi boyunca yaşanmış olandan çok daha fazla ızdırap yaratabilir. Muhtemel s-risk sebepleri arasında fiziksel forma sahip bir yapay-zeka ya da süper yapay-zeka olabileceği gibi "bitmek bilmeyen yıkıcı savaşlar" ve "genellikle acı dolu, kısa ve sefil hayatları olan" yaban hayvanlarını isteyerek ya da istemeden başka gezegenlere taşıyarak yaban hayvanı ızdırabında muazzam artışa yol açabilecek bir uzak kolonizasyonu da olabilir.

<span class="mw-page-title-main">Yapay zeka felsefesi</span> Overview of the philosophy of artificial intelligence

Yapay zeka felsefesi, yapay zekayı ve yapay zekanın, etik, bilinç, epistemoloji ve özgür irade bilgi ve anlayışı üzerindeki etkilerini araştıran teknoloji felsefesinin bir dalıdır. Ayrıca teknoloji, yapay hayvanların veya yapay insanların yaratılmasıyla ilgilidir, bu nedenle disiplin, filozoflar için oldukça ilgi çekicidir. Bu faktörler yapay zeka felsefesinin ortaya çıkmasına katkıda bulunmuştur. Bazı akademisyenler, AI topluluğunun felsefeyi reddetmesinin zararlı olduğunu savunur.

<span class="mw-page-title-main">Küresel felaket riski</span>

Küresel felaket riski, küresel ölçekte insan refahına zarar verebilecek, hatta modern uygarlığı tehlikeye atabilecek veya yok edebilecek varsayımsal bir gelecek olayıdır. İnsan neslinin yok olmasına neden olabilecek veya insanlığın potansiyelini kalıcı ve büyük ölçüde azaltabilecek bir olay, bir varoluşsal risk olarak bilinir.

<span class="mw-page-title-main">Mustafa Süleyman</span> Britanyalı girişimci ve aktivist

Mustafa Süleyman CBE, Google tarafından satın alınan ve şu anda Alphabet'in sahibi olduğu bir yapay zeka şirketi olan DeepMind'ın kurucu ortağı ve eski uygulamalı yapay zeka başkanıdır. Şu anki girişimi Inflection AI'dir.

<span class="mw-page-title-main">İnsan neslinin tükenmesi</span>

İnsanın neslinin tükenmesi, asteroit çarpması ya da büyük ölçekli volkanizma gibi dış doğal nedenlerden dolayı nüfusun azalması ya da örneğin yarı ikame doğurganlık gibi antropojenik yıkım yoluyla insan türünün varsayımsal sonudur.

<span class="mw-page-title-main">Yapay zekânın kontrolü devralması</span>

Yapay zekanın kontrolü devralması, bilgisayar programlarının veya robotların gezegenin kontrolünü etkili bir şekilde insan türünün elinden alması sonucunda yapay zekanın (AI) Dünya'nın baskın zeka biçimi haline geldiği varsayımsal bir senaryodur. Olası senaryolar arasında tüm insan iş gücünün değiştirilerek tam otomasyon sağlanması, süper akıllı bir yapay zekanın kontrolü devralması ve popüler bir robot isyanı fikri yer almaktadır. Yapay zekanın ele geçirilmesiyle ilgili bilimkurgu hikâyeleri popülerliğini korumaktadır, aynı zamanda son gelişmeler de bu tehdidi daha gerçekçi hale getirmiştir. Stephen Hawking ve Elon Musk gibi bazı ünlü kişiler, gelecekte süper zeki cihazların insan denetimi altında kalmalarını temin etmek için tedbir araştırmaları yürütülmesini savunmaktadır.

<span class="mw-page-title-main">Yapay zeka patlaması</span>

Yapay Zeka Patlaması, veya Yapay Zeka Baharı, yapay zeka alanında çok hızlı bir şekilde devam eden ilerleme dönemidir. Öne çıkan örnekler arasında Google DeepMind ve OpenAI gibi laboratuvarlar tarafından yürütülen üretken yapay zekalar yer almaktadır.

<span class="mw-page-title-main">Yapay zekâ güvenliği</span>

Yapay zekâ güvenliği, yapay zekâ sistemlerinden kaynaklanabilecek kazaları, kötüye kullanımı veya diğer zararlı sonuçları önlemekle ilgilenen disiplinler arası bir alandır. Yapay zekâ sistemlerini ahlaki ve faydalı hale getirmeyi amaçlayan makine etiği ile yapay zekâ uyumunu kapsar ve yapay zekâ güvenliği, riskler için sistemleri izlemek ve onları son derece güvenilir hale getirmek gibi teknik sorunları kapsar. Yapay zekâ araştırmalarının ötesinde, güvenliği teşvik eden normlar ve politikalar geliştirmeyi içerir.

Yapay Zekâ Yasası, Avrupa Birliği'nin yapay zekâya (AI) ilişkin düzenlemesidir.