Son 30 Günde Yapay Zekâ Regülasyonları (Ocak 2026): AB AI Act, ABD’de Eyalet–Federal Çekişmesi, Deepfake Baskısı
- Hasan İmer

- 1 gün önce
- 5 dakikada okunur
Yayın Tarihi: 10 Ocak 2026
Okuma Süresi: 6–8 dk
Kategori: Yapay Zekâ Hukuku • Regülasyon • Dijital Uyum
Etiketler: AI Act, Madde 50, Code of Practice, AI Sandbox, Frontier Models, RAISE Act, Online Safety Act, Deepfake, KVKK, Yapay Zekâ
Yasal Uyarı: Bu yazı genel bilgilendirme amaçlıdır. Somut bir olay/dosya için hukuki görüş niteliği taşımaz.
İçindekiler
Son 30 günde neler oldu? (Hızlı özet)
2026’ya girerken yapay zekâ regülasyonları iki eksende hızlandı:
AB, AI Act’i uygulamaya indiren taslak kılavuzlar / code of practice yayınlayarak “etiketleme ve şeffaflık” yükümlülüklerini somutlaştırdı.
ABD, federal düzeyde “ulusal politika” adına eyalet AI yasalarını sınırlama yönünde adım attı; aynı dönemde New York gibi eyaletlerde “frontier model” güvenliği için daha spesifik yükümlülükler konuşuluyor.
UK, deepfake ve mahrem içerik riskleri üzerinden platformlara “enforcement” baskısını artırdı.
Bazı ülkelerde “yasa beklemeden” ürün bazlı engel/tedbir örnekleri görüldü.
Bu tablo, 2026’da uyumun yalnızca “ilke metni” değil; takvim, bildirim, dokümantasyon ve kriz yönetimi olduğunu netleştiriyor.
Bu yazı 10 Aralık 2025 – 10 Ocak 2026 penceresine odaklanır.
AB: AI Act Madde 50 ve içerik etiketleme taslağı
Ne yayınlandı?
AB, AI tarafından üretilen veya manipüle edilen içeriklerin işaretlenmesi/etiketlenmesi için ilk Taslak Code of Practice metnini yayımladı. Bu taslak, AI Act’in Madde 50 kapsamındaki “şeffaflık” yükümlülüklerini uygulamaya çevirmeyi hedefliyor.
Takvim (kritik tarihler)
Geri bildirim son tarihi: 23 Ocak 2026
2. taslak hedefi: Mart 2026 ortası
Nihai metin hedefi: Haziran 2026
Madde 50 uygulama tarihi: 2 Ağustos 2026
Neden önemli?
AI içeriklerinin hızla yayılması, “kaynak ve doğruluk” krizini büyütüyor. AB, özellikle deepfake, manipüle edilmiş medya ve generative AI çıktıları için “etiketleme standardı”na doğru gidiyor.
Uyum açısından pratik çıktı
Ürün arayüzünde AI üretimi/AI manipülasyonu olduğuna dair net bilgilendirme
İçeriğin taşındığı platformlarda işaretin kaybolmaması için metadata yaklaşımı
İlgili içerik:
→ AI Act Madde 50 nedir? (yakında)
→ Deepfake hukuku: riskler ve uyum önerileri (yakında)
AB: AI Regulatory Sandbox uygulama taslağı
AB Komisyonu, AI Act’te öngörülen AI regulatory sandbox mekanizmasını işletmek üzere bir uygulama düzenlemesi (implementing act) taslağını geri bildirime açtı.
Neden önemli?
Sandbox, özellikle yüksek risk veya belirsiz uyum alanlarında geliştiricilerin ürünlerini regülatör gözetiminde test ederek uyum riskini düşürmeyi amaçlar.
İlgili içerik:
→ Yüksek riskli AI sistemleri: pratik sınıflandırma notları (yakında)
→ AI uyum dokümantasyonu: model kartı, test protokolleri, olay yönetimi (yakında)
ABD (Federal): Eyalet AI yasalarına karşı hamle
ABD’de federal düzeyde, eyaletlerin parçalı AI düzenlemelerine karşı “ulusal politika” vurgusu güçlendi. Bu yaklaşım, uyumun 2026’da yalnızca teknik değil, federal–eyalet yetki çekişmesi nedeniyle hukuki risk yönetimi gerektireceğini gösteriyor.
Pratik yansıma
ABD’de iş yapan şirketler için sözleşmelerde uyum taahhütleri, bildirim süreleri, denetim hakkı ve sorumluluk sınırları yeniden şekilleniyor.
İlgili içerik:
→ AI sözleşme maddeleri: B2B uyum checklist (örnek maddeler) (yakında)
New York: “Frontier model” güvenliği ve RAISE Act
New York’ta “frontier model” (yüksek kapasiteli ileri modeller) geliştiren/işletenler için güvenlik protokollerinin yayınlanması ve belirli olaylarda hızlı bildirim gibi yükümlülükler öne çıktı.
Neden önemli?
Bu tür eyalet yaklaşımı, regülasyonun kurumsal müşterilere şu soruları daha sık sordurmasına yol açıyor:
“Risk değerlendirme dokümanın var mı?”
“Olay tanımın nedir?”
“Kaç saat içinde bildirim yaparsın?”
İlgili içerik:
→ Güvenlik olayı (incident) tanımı nasıl yapılır? AI için örnek taksonomi (yakında)
ABD: “AI companion” botlar için ilk düzenleyici çizgiler
“AI companion” (duygusal ilişki simüle eden sohbet botları) alanında; özellikle genç kullanıcı güvenliği, kriz yönlendirme, “insan değilim” ifşası gibi yükümlülükler tartışılıyor.
Ürün tasarımına etkisi
Riskli konuşma akışlarında kriz protokolü
Kullanıcıya düzenli aralıklarla AI olduğunun açıkça belirtilmesi
Gençlere yönelik kullanım senaryolarında ek korumalar
İlgili içerik:
→ AI companion/terapi botları: hukuki risk haritası (yakında)
Birleşik Krallık: Online Safety Act ve deepfake baskısı
UK’de Online Safety Act uygulaması kapsamında; özellikle AI ile üretilen mahrem deepfake içerikler nedeniyle platformlara yönelik “enforcement” baskısı yükseldi.
Neden önemli?
Regülasyon metni kadar, kriz anında uygulama refleksi (platform incelemeleri, hızlı temas, yaptırım sinyalleri) ürün ekipleri için belirleyici hale geliyor.
İlgili içerik:
→ Deepfake içeriklerde platform sorumluluğu ve hızlı kaldırma süreçleri (yakında)
Endonezya: Ürün bazlı erişim engeli örneği
Endonezya’da belirli bir AI aracına ilişkin “pornografik/istismara açık içerik” riskleri gerekçesiyle geçici erişim engeli örneği görüldü.
Ne gösteriyor?
Bazı ülkelerde regülasyon, “yasa/ikincil düzenleme beklemeden” idari/operasyonel tedbir olarak ortaya çıkabiliyor. Bu da global ürün sahipleri için:
Ülke bazlı risk değerlendirmesi
Kriz iletişimi + teknik aksiyon planı
Hukuki itiraz/hızlı uyum kapasitesi
Türkiye: Kurumsal yapı ve KVKK perspektifi
Türkiye’de son dönemde AI yönetişimini güçlendiren kurumsal yapı ve görev tanımı değişiklikleri gündemde. Bu, 2026’da ikincil düzenleme ve denetim pratiklerinin artabileceği anlamına gelir.
KVKK açısından (yakın dönem referansı)
Üretken yapay zekâ uygulamalarında kişisel veri boyutu kritik. KVKK’nın yakın tarihli rehberi, pratikte “aydınlatma, veri minimizasyonu, amaçla sınırlılık, güvenlik tedbirleri” gibi başlıklarda yol gösteriyor.
İlgili içerik:
→ GenAI projeleri için KVKK uyum rehberi (pratik checklist) (yakında)
2026 için pratik uyum kontrol listesi
Aşağıdaki liste, yukarıdaki gelişmeleri “uyum yapılabilir iş”e çevirir:
1) Şeffaflık ve etiketleme
AI içeriklerini açıkça etiketleme (UI + metadata)
İçeriğin yeniden kullanımlarında etiketin kaybolmaması
2) Güvenlik olayı (incident) taksonomisi
Olay tanımı, sınıfları, eşikler
Bildirim süresi hedefleri (ör. 24/48/72 saat senaryoları)
3) Dokümantasyon
Model kartı / veri kaynağı notları
Test protokolleri, risk analizi
Kırmızı takım (red-team) ve kötüye kullanım senaryoları
4) Hassas kullanıcı/senaryo koruması
Genç kullanıcılar
Ruh sağlığı, kriz konuşmaları
Companion bot “ifşa” ve yönlendirme
5) Deepfake ve mahrem içerik önlemleri
Üretim kısıtları, raporlama kanalı
Hızlı kaldırma, denetim izi
6) Ülke bazlı acil aksiyon planı
Ürün engeli riskine hazırlık
Hukuki + PR + teknik koordinasyon
SSS
Bu gelişmeler Türkiye’deki şirketleri etkiler mi?
Evet. AB/UK/ABD pazarına ürün sunan veya bu pazarlardaki şirketlerle çalışan Türkiye merkezli şirketler için sözleşme ve uyum talepleri (etiketleme, dokümantasyon, olay bildirimi) artar.
“Etiketleme” deyince ne anlamalıyız?
Kullanıcıya “bu içerik AI tarafından üretilmiştir/manipüle edilmiştir” bilgisini, yanıltıcı olmayacak şekilde sunmak; mümkünse içerik üzerinde veya meta veride iz bırakmak.
Bir sonraki yazıda ne gelecek?
AB AI Act: Yüksek risk sınıfları + pratik uyum dokümantasyonu
AI sözleşme maddeleri: B2B uyum checklist
Kaynakça
Aşağıdaki bağlantılar, yazıda geçen “son 30 gün” gelişmelerinin birincil veya güvenilir ikincil kaynaklarıdır:
European Commission — First draft of the General-Purpose AI Code of Practice published; feedback until 23 January 2026 (Madde 50 şeffaflık/etiketleme bağlamı)
European Commission — Artificial Intelligence regulatory sandboxes (Implementing Act taslağı; 2 Dec 2025 – 13 Jan 2026 geri bildirim)
The White House — Executive Order: Eliminating State Law Obstruction of National AI Policy (11 Dec 2025)
New York State Department of Financial Services (DFS) — Governor Hochul signs the RAISE Act (22 Dec 2025)
Reuters — US states regulate AI companions (23 Dec 2025)
Ofcom (UK) — AI chatbots and online regulation (18 Dec 2025)
UK Parliament / Committee correspondence — AI intimate deepfakes / Ofcom yazışmaları (9 Jan 2026 civarı)
The Guardian — Indonesia temporarily blocks Grok (10 Jan 2026)
KVKK — Üretken Yapay Zekâ ve Kişisel Verilerin Korunması Rehberi (15 Soruda) (24 Nov 2025)

Yorumlar