top of page

Son 30 Günde Yapay Zekâ Regülasyonları (Ocak 2026): AB AI Act, ABD’de Eyalet–Federal Çekişmesi, Deepfake Baskısı

  • Yazarın fotoğrafı: Hasan İmer
    Hasan İmer
  • 1 gün önce
  • 5 dakikada okunur

Yayın Tarihi: 10 Ocak 2026

Okuma Süresi: 6–8 dk

Kategori: Yapay Zekâ Hukuku • Regülasyon • Dijital Uyum

Etiketler: AI Act, Madde 50, Code of Practice, AI Sandbox, Frontier Models, RAISE Act, Online Safety Act, Deepfake, KVKK, Yapay Zekâ

Yasal Uyarı: Bu yazı genel bilgilendirme amaçlıdır. Somut bir olay/dosya için hukuki görüş niteliği taşımaz.

İçindekiler

Son 30 günde neler oldu? (Hızlı özet)

2026’ya girerken yapay zekâ regülasyonları iki eksende hızlandı:

  1. AB, AI Act’i uygulamaya indiren taslak kılavuzlar / code of practice yayınlayarak “etiketleme ve şeffaflık” yükümlülüklerini somutlaştırdı.

  2. ABD, federal düzeyde “ulusal politika” adına eyalet AI yasalarını sınırlama yönünde adım attı; aynı dönemde New York gibi eyaletlerde “frontier model” güvenliği için daha spesifik yükümlülükler konuşuluyor.

  3. UK, deepfake ve mahrem içerik riskleri üzerinden platformlara “enforcement” baskısını artırdı.

  4. Bazı ülkelerde “yasa beklemeden” ürün bazlı engel/tedbir örnekleri görüldü.

Bu tablo, 2026’da uyumun yalnızca “ilke metni” değil; takvim, bildirim, dokümantasyon ve kriz yönetimi olduğunu netleştiriyor.

Bu yazı 10 Aralık 2025 – 10 Ocak 2026 penceresine odaklanır.

AB: AI Act Madde 50 ve içerik etiketleme taslağı

Ne yayınlandı?

AB, AI tarafından üretilen veya manipüle edilen içeriklerin işaretlenmesi/etiketlenmesi için ilk Taslak Code of Practice metnini yayımladı. Bu taslak, AI Act’in Madde 50 kapsamındaki “şeffaflık” yükümlülüklerini uygulamaya çevirmeyi hedefliyor.

Takvim (kritik tarihler)

  • Geri bildirim son tarihi: 23 Ocak 2026

  • 2. taslak hedefi: Mart 2026 ortası

  • Nihai metin hedefi: Haziran 2026

  • Madde 50 uygulama tarihi: 2 Ağustos 2026

Neden önemli?

AI içeriklerinin hızla yayılması, “kaynak ve doğruluk” krizini büyütüyor. AB, özellikle deepfake, manipüle edilmiş medya ve generative AI çıktıları için “etiketleme standardı”na doğru gidiyor.

Uyum açısından pratik çıktı

  • Ürün arayüzünde AI üretimi/AI manipülasyonu olduğuna dair net bilgilendirme

  • İçeriğin taşındığı platformlarda işaretin kaybolmaması için metadata yaklaşımı

İlgili içerik:

  • AI Act Madde 50 nedir? (yakında)

  • Deepfake hukuku: riskler ve uyum önerileri (yakında)

AB: AI Regulatory Sandbox uygulama taslağı

AB Komisyonu, AI Act’te öngörülen AI regulatory sandbox mekanizmasını işletmek üzere bir uygulama düzenlemesi (implementing act) taslağını geri bildirime açtı.

Neden önemli?

Sandbox, özellikle yüksek risk veya belirsiz uyum alanlarında geliştiricilerin ürünlerini regülatör gözetiminde test ederek uyum riskini düşürmeyi amaçlar.

İlgili içerik:

  • Yüksek riskli AI sistemleri: pratik sınıflandırma notları (yakında)

  • AI uyum dokümantasyonu: model kartı, test protokolleri, olay yönetimi (yakında)

ABD (Federal): Eyalet AI yasalarına karşı hamle

ABD’de federal düzeyde, eyaletlerin parçalı AI düzenlemelerine karşı “ulusal politika” vurgusu güçlendi. Bu yaklaşım, uyumun 2026’da yalnızca teknik değil, federal–eyalet yetki çekişmesi nedeniyle hukuki risk yönetimi gerektireceğini gösteriyor.

Pratik yansıma

  • ABD’de iş yapan şirketler için sözleşmelerde uyum taahhütleri, bildirim süreleri, denetim hakkı ve sorumluluk sınırları yeniden şekilleniyor.

İlgili içerik:

  • AI sözleşme maddeleri: B2B uyum checklist (örnek maddeler) (yakında)


New York: “Frontier model” güvenliği ve RAISE Act

New York’ta “frontier model” (yüksek kapasiteli ileri modeller) geliştiren/işletenler için güvenlik protokollerinin yayınlanması ve belirli olaylarda hızlı bildirim gibi yükümlülükler öne çıktı.

Neden önemli?

Bu tür eyalet yaklaşımı, regülasyonun kurumsal müşterilere şu soruları daha sık sordurmasına yol açıyor:

  • “Risk değerlendirme dokümanın var mı?”

  • “Olay tanımın nedir?”

  • “Kaç saat içinde bildirim yaparsın?”

İlgili içerik:

  • Güvenlik olayı (incident) tanımı nasıl yapılır? AI için örnek taksonomi (yakında)


ABD: “AI companion” botlar için ilk düzenleyici çizgiler

“AI companion” (duygusal ilişki simüle eden sohbet botları) alanında; özellikle genç kullanıcı güvenliği, kriz yönlendirme, “insan değilim” ifşası gibi yükümlülükler tartışılıyor.

Ürün tasarımına etkisi

  • Riskli konuşma akışlarında kriz protokolü

  • Kullanıcıya düzenli aralıklarla AI olduğunun açıkça belirtilmesi

  • Gençlere yönelik kullanım senaryolarında ek korumalar

İlgili içerik:

  • AI companion/terapi botları: hukuki risk haritası (yakında)



Birleşik Krallık: Online Safety Act ve deepfake baskısı

UK’de Online Safety Act uygulaması kapsamında; özellikle AI ile üretilen mahrem deepfake içerikler nedeniyle platformlara yönelik “enforcement” baskısı yükseldi.

Neden önemli?

Regülasyon metni kadar, kriz anında uygulama refleksi (platform incelemeleri, hızlı temas, yaptırım sinyalleri) ürün ekipleri için belirleyici hale geliyor.

İlgili içerik:

  • Deepfake içeriklerde platform sorumluluğu ve hızlı kaldırma süreçleri (yakında)


Endonezya: Ürün bazlı erişim engeli örneği

Endonezya’da belirli bir AI aracına ilişkin “pornografik/istismara açık içerik” riskleri gerekçesiyle geçici erişim engeli örneği görüldü.

Ne gösteriyor?

Bazı ülkelerde regülasyon, “yasa/ikincil düzenleme beklemeden” idari/operasyonel tedbir olarak ortaya çıkabiliyor. Bu da global ürün sahipleri için:

  • Ülke bazlı risk değerlendirmesi

  • Kriz iletişimi + teknik aksiyon planı

  • Hukuki itiraz/hızlı uyum kapasitesi

Türkiye: Kurumsal yapı ve KVKK perspektifi

Türkiye’de son dönemde AI yönetişimini güçlendiren kurumsal yapı ve görev tanımı değişiklikleri gündemde. Bu, 2026’da ikincil düzenleme ve denetim pratiklerinin artabileceği anlamına gelir.

KVKK açısından (yakın dönem referansı)

Üretken yapay zekâ uygulamalarında kişisel veri boyutu kritik. KVKK’nın yakın tarihli rehberi, pratikte “aydınlatma, veri minimizasyonu, amaçla sınırlılık, güvenlik tedbirleri” gibi başlıklarda yol gösteriyor.

İlgili içerik:

  • GenAI projeleri için KVKK uyum rehberi (pratik checklist) (yakında)


2026 için pratik uyum kontrol listesi

Aşağıdaki liste, yukarıdaki gelişmeleri “uyum yapılabilir iş”e çevirir:

1) Şeffaflık ve etiketleme

  • AI içeriklerini açıkça etiketleme (UI + metadata)

  • İçeriğin yeniden kullanımlarında etiketin kaybolmaması

2) Güvenlik olayı (incident) taksonomisi

  • Olay tanımı, sınıfları, eşikler

  • Bildirim süresi hedefleri (ör. 24/48/72 saat senaryoları)

3) Dokümantasyon

  • Model kartı / veri kaynağı notları

  • Test protokolleri, risk analizi

  • Kırmızı takım (red-team) ve kötüye kullanım senaryoları

4) Hassas kullanıcı/senaryo koruması

  • Genç kullanıcılar

  • Ruh sağlığı, kriz konuşmaları

  • Companion bot “ifşa” ve yönlendirme

5) Deepfake ve mahrem içerik önlemleri

  • Üretim kısıtları, raporlama kanalı

  • Hızlı kaldırma, denetim izi

6) Ülke bazlı acil aksiyon planı

  • Ürün engeli riskine hazırlık

  • Hukuki + PR + teknik koordinasyon

SSS

Bu gelişmeler Türkiye’deki şirketleri etkiler mi?

Evet. AB/UK/ABD pazarına ürün sunan veya bu pazarlardaki şirketlerle çalışan Türkiye merkezli şirketler için sözleşme ve uyum talepleri (etiketleme, dokümantasyon, olay bildirimi) artar.

“Etiketleme” deyince ne anlamalıyız?

Kullanıcıya “bu içerik AI tarafından üretilmiştir/manipüle edilmiştir” bilgisini, yanıltıcı olmayacak şekilde sunmak; mümkünse içerik üzerinde veya meta veride iz bırakmak.

Bir sonraki yazıda ne gelecek?

  • AB AI Act: Yüksek risk sınıfları + pratik uyum dokümantasyonu

  • AI sözleşme maddeleri: B2B uyum checklist


Kaynakça

Aşağıdaki bağlantılar, yazıda geçen “son 30 gün” gelişmelerinin birincil veya güvenilir ikincil kaynaklarıdır:

  1. European Commission — First draft of the General-Purpose AI Code of Practice published; feedback until 23 January 2026 (Madde 50 şeffaflık/etiketleme bağlamı)

  2. European Commission — Artificial Intelligence regulatory sandboxes (Implementing Act taslağı; 2 Dec 2025 – 13 Jan 2026 geri bildirim)

  3. The White House — Executive Order: Eliminating State Law Obstruction of National AI Policy (11 Dec 2025)

  4. New York State Department of Financial Services (DFS) — Governor Hochul signs the RAISE Act (22 Dec 2025)

  5. Reuters — US states regulate AI companions (23 Dec 2025)

  6. Ofcom (UK) — AI chatbots and online regulation (18 Dec 2025)

  7. UK Parliament / Committee correspondence — AI intimate deepfakes / Ofcom yazışmaları (9 Jan 2026 civarı)

  8. The Guardian — Indonesia temporarily blocks Grok (10 Jan 2026)

  9. KVKK — Üretken Yapay Zekâ ve Kişisel Verilerin Korunması Rehberi (15 Soruda) (24 Nov 2025)


Yorumlar


Bu gönderiye yorum yapmak artık mümkün değil. Daha fazla bilgi için site sahibiyle iletişime geçin.

© Copyright 2025 - Hasan İmer Akın | Her Hakkı Saklıdır.

bottom of page