Yeni Gelecek

Söylemden Kanıta: Yapay Zekada ‘İspatlanabilirlik’ Çağı ve Yeni Sosyal Sözleşme

Yapay zekâ dünyası için 2023 bir “hayret” dönemi iken, dünya vatandaşları için ise  pandemi sonrası yeni şeylerin ayak seslerinin geldiğini fark ettiği ama anlamlandıramadığı bir yıldı. Her yeni modelle biraz daha şaşırdığımız, imkânsızın sınırlarını zorladığımız bir teknolojik ilkbahara merhaba dedik. Ancak 2026 yılının bu ilk yarısında, o romantik sis bulutu artık dağılıyor. Hemen hemen herkesin bir şekilde yapay zekaya temas ettiği bir dönemde masamızdaki yeni ve soğuk gerçeklik bizleri teknolojinin ne yapabildiği değil; yaptığı şeyin arkasında kimin, hangi kanıtla durabildiğini sorgulamaya çağırıyor. 

Vahşi Batı’nın Sonu ve Ontolojik Kırılma

Yapay zekâ ekosistemi, Sam Altman’ın 16 Mayıs 2023’te ABD Senatosu’ndaki o tarihi konuşmada sarf ettiği “Eğer bu teknoloji ters giderse, çok ters gidebilir” cümlesiyle aslında Silikon Vadisi’nin on yıllardır süregelen “hızlı hareket et ve bir şeyleri boz” felsefesinin sonuna işaret ediyordu [1]. Bu itiraf, teknolojiyi bir kaç dev yapay zeka şirketinin hakim olduğu bir “kara kutu” olmaktan çıkarıp; şirketlere, endüstrilere ve insanların gündelik yaşamına hızla temas eden hukuki ve ahlaki bir “kanıt zinciri” (chain of evidence) haline getirme zorunluluğunu doğurdu.

Geriye dönüp baktığımızda, 90’ların başında internetin (TCP/IP) fiziksel sınırları aşan bir “mekân devrimi” yarattığını, 2000’lerde ise GSM ve mobil dünyanın zamanı ve mekânı senkronize eden bir “iletişim devrimi” sunduğunu görüyoruz. Fakat bu teknolojilerin her ikisi de pasifti; bilgiyi taşıyan boru hatları olarak işlev görüyorlardı. Her ne kadar bugün bu iletişim devriminin insan hayatına etkilerine yönelik sorular çoğalmaya devam etse de, biz daha çok “borudan ne geçtiğinden” ziyade “borunun sağlamlığıyla” ilgileniyorduk. Yapay zekâ ise tarihte ilk kez, aracın kendisinin bir “özne” (agent) haline geldiği, gerçek öznenin kim olduğunun karıştığı bir ontolojik devrim niteliği taşıyor.

İnternet dünyayı küçültmüştü, mobilite bizi her yere ulaştırmıştı; bu yeni devrim ise bizi, kendi zihnimizin ve kullandığımız araçların üretkenliğinin “şahidi” olmaya davet ediyor.

“Okuryazarlık”tan “Yeterlilik Rejimi”ne

Eskiden bir uzman olarak teknolojiyi kullanabiliyor olmak ve ilgili teknolojinin üretim dilini bilmek yeterliydi. Ancak Avrupa Birliği Komisyonu’nun 2 Ağustos 2025’te yürürlüğe giren yaptırımları ve geçtiğimiz ay, 26 Mart 2026’da güncellenen kamuya açık eğitim şablonları, meseleyi basit bir yapay zekâ “kullanım” bilgisinden öteye taşıyarak “ispatlanabilir yeterlilik” meselesine getirdi. [2].

Bunun sebebi; Google Cloud CEO’su Thomas Kurian’ın vurguladığı gibi “meselenin teknolojiye sahip olmaktan öte, o teknolojinin çıktılarının doğruluğunu garanti altına alacak kurumsal bir disipline sahip olmayı gerektirmesiydi.” [3]. Kurian burada sadece teknik bir detaydan bahsetmiyordu; güvenin artık bir niyet beyanı olmaktan çıkıp, titiz bir kayıt tutma (record-keeping) disiplinine dönüşeceğini anlatıyordu. (Bkz: Sorumlu yapay zeka)

Thomas Kurian’ın anlatmaya çalıştığı perspektifi Sosyolog Zygmunt Bauman’ın anlatısı üzerinden değerlendirdiğimizde ise ifade edilmek istenen anlam daha da güçleniyor. “Belirsizlik çağında sabit doğruların yerini “o anki veriden üretilmiş çıkarımlar” alır.” [4] Bauman’ın “akışkan modernite” diye tasvir ettiği bu durum bizi artık bir algoritma bize ‘hayır’ dediğinde ya da tıbbi bir teşhis koyduğunda, sonucun ne olduğundan çok, o kararın hangi ‘neden ve nasıl’ süzgecinden geçtiğini bilme ihtiyacını duyduğumuz noktaya taşır. İşte bu yeni eşik, toplumsal güvenin merkezini; kurumsal vaatlerden alıp, algoritmaların açıklanabilirliği ve denetlenebilirliği üzerine kuruyor. Güven artık kelimelerde değil, kodların şeffaflığında aranacak anlamına geliyor. Bu durum, toplumsal güven inşasını kurumların retoriğinden, algoritmaların denetlenebilirliğine itiyor.

“Yapay zeka, insan değerlerini yansıtmalıdır; ancak bu yansıma sadece niyetle değil, izlenebilir bir dökümantasyonla mümkündür.”Fei-Fei Li, Stanford Human-Centered AI Institute [5]

2 Ağustos 2026 ve “Bilişsel Özerklik”

Önümüzde kritik bir eşik var: 2 Ağustos 2026. Bu tarih, Avrupa Birliği Komisyonu’nun yaptırım yetkisinin tam kapasite devreye girdiği, “yapay zekâ masumiyetinin” resmen sona erdiği milat olacak [6]. Bu tarihten itibaren dijital evrende “bilmiyordum” ya da “model öyle dedi” argümanları, ehliyetsiz araç kullanırken kaza yapan bir sürücünün savunması kadar geçersiz sayılacak.

Bireysel bağlamda en radikal değişim “Bilişsel Özerklik” kavramında yaşanacak. Artık bir profesyonel olarak sadece YZ’yi kullanma becerinizle değil, YZ ile kurduğunuz ilişkinin “denetim iziyle” (audit trail) yargılanacaksınız. Bir avukatın dilekçesinde veya bir mimarın statik hesabında kullanılan YZ, o bireyin zihninin bir uzantısı kabul edilecek. Hata, “sistem hatası” değil, insanın “denetim ihmali” sayılacak. Sosyal hayatımızda ise “İspatlanmış Kimlikler” çağı başlayacak. Yapay zekanın her türlü gerçekliği manipüle edebildiği bir dünyada, bir video konferansta konuştuğunuz kişinin gerçekliğini teyit eden “kanıt protokolleri”, gündelik hayatın sıradan bir parçası haline gelecek.

Ve Karşımızda Zekanın Rüştünü İspatı

İnternet bize hızı, mobilite bize her an ulaşılabilir olmayı hediye etmişti; yapay zekâ ise bize “epistemik sorumluluğu”, yani neyi neden bildiğimizin hesabını verme yükümlülüğünü getiriyor. Bu, dijital bir hantallık değil, zekanın rüştünü ispat etme sürecidir. Sektörel düzeyde artık “Algoritmik Ehliyet” dönemi başlıyor. Tıpkı 20. yüzyılın başında otomobillerin yaygınlaşmasıyla trafik kurallarının doğması gibi; yapay zeka sistemleri de artık toplumsal hayatın “vahşi” bir parçası olmaktan çıkıp, lisanslı ve kayıtlı birer “aktör” haline geliyor.

Gelecek, zekasını sadece sergileyenlerin değil, o zekayı dokümante edebilenlerin ve sorumluluğunu üstlenenlerin olacak. Çünkü artık asıl soru modelin ne kadar büyük olduğu değil, o kararın arkasındaki insan-makine işbirliğini ne kadar şeffaf kılabildiğimizdir.

Hoş geldin “Kanıt Çağı”.


KAYNAKÇA VE REFERANSLAR

  • [1] Altman, S. (2023). Testimony Before the Senate Judiciary Subcommittee on Privacy, Technology, and the Law. “Oversight of A.I.: Rules for Artificial Intelligence.” May 16, 2023.
  • [2] European Commission. (2026). Updated Template for the Publicly Available Summary of Training Content for GPAI Models (Art. 53(1)). March 26, 2026.
  • [3] Kurian, T. (2024). Enterprise AI and the Discipline of Validation. Google Cloud Next ’24 Executive Keynote.
  • [4] Bauman, Z. (2000). Liquid Modernity. Polity Press. (Toplumsal güven ve akışkan veri dinamikleri üzerine temellendirilmiş kuramsal çerçeve).
  • [5] Li, F. F. (2024). The State of Human-Centered AI. Stanford HAI Annual Report & World Economic Forum Panel on AI Governance.
  • [6] European Union. (2024). Regulation (EU) 2024/1689 of the European Parliament and of the Council (AI Act). Official Implementation Roadmap: Full Sanctioning Power & High-Risk Obligations (August 2, 2026).

Bu analiz, The Potential Today için “Future-Audit” serisi kapsamında hazırlanmıştır.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir