Yapay Zeka ile Kişiselleştirilmiş Eğitimde “Hukuki Profil Çıkarma” Riski

Sercan Koç

Kurucu

April 26, 2026

24 min read

Özet

Bu makale, yapay zeka destekli öğrenme yönetim sistemlerinin ürettiği risk skorları, başarı tahminleri ve katılım profillerinin hukuki niteliğini incelemektedir. Temel tez şudur: Bir LMS verisi, öğrenciye ilişkin yalnızca teknik bir kullanım kaydı olmaktan çıkıp bireyin performansını, davranışını veya gelecekteki başarısını değerlendiren ve kurumsal kararlarda etkili olan bir yapıya dönüştüğünde, artık salt öğrenme analitiği değil; profil çıkarma, çıkarımsal kişisel veri üretimi ve bazı durumlarda otomatik karar alma sorunu doğurur. Bu çerçevede makalede, istatistik ile profil arasındaki sınır, erken uyarı ile damgalama ayrımı, açıklama ve itiraz hakları, insan denetiminin anlamı, amaç dışı kullanım yasağı ve çocuklar, öğrenciler ile çalışanlar bakımından farklılaşan koruma rejimleri ele alınmaktadır.

Kişiselleştirilmiş öğrenme vaadi ve temel hukuk sorusu

Yapay zeka destekli öğrenme sistemleri bugün eğitimin en parlak vaatlerinden birini taşıyor: her öğrencinin hızına, ihtiyacına ve öğrenme biçimine göre uyarlanmış bir eğitim deneyimi. Öğrenme yönetim sistemleri artık yalnızca içerik sunmuyor; öğrencinin hangi modülde ne kadar kaldığını, hangi sorularda zorlandığını, hangi saatlerde sisteme girdiğini, ne kadar tekrar yaptığını, hangi içerikleri yarım bıraktığını ve hatta hangi davranış örüntülerinin başarısızlık riskine işaret ettiğini ölçebiliyor. Teknik açıdan bakıldığında bu gelişme, pedagojik verimliliği artıran bir öğrenme analitiği devrimi gibi görünüyor. Hukuk açısından bakıldığında ise daha zor bir soru ortaya çıkıyor: Sistem, öğrenciyi desteklemek için veri mi işliyor, yoksa öğrenci hakkında sonuç doğurabilecek bir profil mi üretiyor?

Analitikten profile geçiş eşiği

Asıl mesele tam da burada başlıyor. Çünkü bir LMS, öğrencinin davranışlarından "dersi bırakma ihtimali", "başarı skoru", "düşük katılım profili" veya "yüksek riskli kullanıcı" gibi sonuçlar üretmeye başladığında, elindeki veri artık yalnızca geçmişi gösteren bir kayıt olmaktan çıkar. Bu veri, kişinin geleceğine ilişkin bir öngörüye; daha önemlisi, kurumun o kişi hakkında vereceği kararları etkileyebilecek bir değerlendirme katmanına dönüşür. Böyle bir dönüşüm yaşandığında, öğrenme analitiği pedagojik bir araç olarak kalmaz; veri koruma hukuku bakımından profil çıkarma, çıkarımsal kişisel veri üretimi ve bazı durumlarda otomatik karar alma rejiminin konusu haline gelir.

Bu nedenle tartışma yalnızca teknik bir sınıflandırma sorunu değildir. Aslında mesele, eğitim kurumlarının öğrenciye ilişkin hangi bilgi katmanını üretmeye yetkili olduğu ve bu üretimin hangi noktada bireyin eğitimsel özerkliği, fırsat eşitliği ve kişilik hakları bakımından müdahale niteliği kazandığı sorusudur. LMS mimarileri başlangıçta içerik dağıtımı ve ilerleme takibi için kurulmuş olsa da, bugün birçok sistem öğrencinin davranışsal izlerini geleceğe ilişkin tahmine dönüştürmekte; böylece pedagojik yardım ile algoritmik değerlendirme arasındaki sınırı bulanıklaştırmaktadır. Dergi ölçeğinde sorulması gereken temel hukuk sorusu da tam olarak budur: Eğitim için toplanan veri, hangi eşikte birey hakkında sonuç doğuran kurumsal bir dosyaya dönüşür?

Haber Bültenine Kaydolun

Sektördeki gelişmeleri Genesis Hukuk'tan takip etmek ve uzman blockchain avukatlarının sektör analizlerinden öncelikli haberdar olun.

Kavramsal ve hukuki çerçeve

Temel kavramlar

Ham veri, çıkarımsal veri ve otomatik değerlendirme çıktısı

Konunun sağlıklı tartışılabilmesi için öncelikle üç kavramın birbirinden ayrılması gerekir: ham kişisel veri, çıkarımsal kişisel veri ve otomatik değerlendirme çıktısı. Ham veri, öğrencinin sisteme giriş zamanı, tamamlama oranı, quiz sonucu veya ödev teslim tarihi gibi doğrudan gözlemlenen verilerdir. Çıkarımsal kişisel veri ise bu ham veriden hareketle oluşturulan yeni anlam katmanını ifade eder; örneğin "düşük motivasyon", "başarısızlık riski", "yüksek bırakma ihtimali" veya "yetersiz katılım profili" gibi. Otomatik değerlendirme çıktısı ise bu çıkarımların, birey hakkında bir müdahale, sıralama veya kararın gerekçesi haline gelmesiyle ortaya çıkar.

Profil oluşturma ve eğitimdeki değerlendirme araçları

Kaynak metinlerin de işaret ettiği üzere, özellikle Avrupa Birliği veri koruma hukukunda profil oluşturma tanımı son derece geniştir. Kişisel verilerin, bir kişinin performansını, davranışını, tercihlerini, güvenilirliğini veya gelecekteki eğilimlerini analiz ya da tahmin etmek amacıyla kullanılması, teknik adı ne olursa olsun profil oluşturma rejimine yaklaşır. Bu yaklaşım eğitim alanında ayrıca önemlidir; çünkü eğitimsel değerlendirme çoğu zaman pedagojik destek görünümü altında yapılsa da, sonuçları bireyin akademik kaderi üzerinde etkili olabilir. Başarı tahmini ya da katılım profili bu nedenle nötr teknik terimler gibi görünse de, hukuk açısından çoğu zaman kişisel değerlendirme araçlarıdır.

AB ve KVKK ekseninde nitelendirme

KVKK ilkeleri ve LMS risk skorlarının niteliği

Türk hukuku bakımından da mesele yalnızca verinin toplanmasıyla sınırlı görülemez. KVKK'daki temel ilkeler, verinin belirli, açık ve meşru amaçlarla işlenmesini; işlendikleri amaçla bağlantılı, sınırlı ve ölçülü olmasını; doğru ve gerektiğinde güncel tutulmasını; ilgili kişiye aydınlatma yapılmasını ve münhasıran otomatik sistemlerle analiz sonucu kişi aleyhine bir sonuç çıkmasına itiraz imkanının tanınmasını gerektirir. Bu çerçevede LMS tabanlı risk skorları, eğer birey hakkında fiili sonuç üretiyor veya kurumsal işlem süreçlerini yönlendiriyorsa, yalnızca teknik performans verisi olarak değil; hukuki sonuç doğurmaya elverişli kişisel değerlendirme verisi olarak ele alınmalıdır.

Öğrenme analitiği ne zaman profil çıkarmaya dönüşür?

İstatistik ile bireysel profil arasındaki sınır

Toplu eğilim mi, bireysel tahmin mi?

Bu sorunun hukuki cevabı, verinin bireyle kurduğu ilişkiye bağlıdır. Eğer sistem, anonimleştirilmiş ve belirli bir kişiye bağlanmayan toplu veriler üzerinden yalnızca genel eğilimler üretiyorsa, ortada istatistiksel analiz vardır. Örneğin, "haftalık tekrar yapan öğrencilerin başarı oranı daha yüksektir" biçimindeki toplu bir tespit, tek başına bir profil çıkarma faaliyeti sayılmaz. Ancak aynı istatistiksel model belirli bir öğrenciye uygulanıp "bu öğrenci başarısız olabilir" veya "bu kişi dersten kopma eğilimindedir" sonucuna ulaşıyorsa, artık kişinin davranışlarını ve performansını tahmin eden bireysel bir değerlendirme söz konusudur.

Avrupa Birliği veri koruma hukukunda profil oluşturma, kişisel verilerin bir kişinin performansını, davranışlarını, tercihlerini, güvenilirliğini veya benzeri özelliklerini analiz etmek ya da tahmin etmek amacıyla kullanılması olarak tanımlanır. Bu tanım eğitim teknolojileri bakımından son derece önemlidir. Çünkü "katılım profili", "öğrenme davranışı analizi", "başarı tahmini" veya "risk skoru" gibi teknik olarak nötr görünen çıktılar, gerçekte bireyin eğitimsel performansını ve gelecekteki konumunu tahmin etmeye yarıyorsa, bunların salt istatistik olduğu söylenemez. Bunlar, kişiye bağlandıkları anda hukuken anlam taşıyan profil verilerine dönüşür.

Skorun hukuki niteliği: isim değil, işlev

Bu nedenle bir LMS tarafından üretilen skorun hukuki niteliği, ona verilen isme göre değil; birey hakkında ne yaptığına göre belirlenir. Sistem, öğrenciyi yalnızca ölçmüyor; sıralıyor, sınıflandırıyor, öngörüyor ve kimi zaman görünmez biçimde yönlendiriyorsa, artık ortada yalnızca veri işleme değil, kişi hakkında değerlendirme üretme faaliyeti vardır. Başka bir ifadeyle, verinin öğrenciye bağlandığı an, "öğrenme kaydı" yavaş yavaş "öğrenci dosyası" halini almaya başlar.

Değerlendirme verisinin dosyalaşması

Grup istatistiği ile kişiye uygulanan model

Bu noktada kaynak yazılarda vurgulanan önemli ayrım şudur: gerçek anlamda anonim, yeniden kimliklendirmeye elverişli olmayan ve yalnızca grup düzeyinde kalan istatistiksel veri ile bireyin kendisine uygulanabilen tahmin modeli aynı hukuki kategoride değildir. Bir üniversitenin tüm öğrenciler üzerinden "ilk dört haftada sisteme hiç girmeyenlerin başarı oranı düşüktür" sonucuna ulaşması başka; bu modeli Ahmet, Ayşe veya belirli bir çalışan üzerinde işletip ona kişisel risk etiketi vermesi başkadır. İkinci durumda genel eğilim bireyselleştirilmiş, yani kurumsal karar mimarisine taşınmış olur. Dolayısıyla istatistikten profile geçiş, teknik modelin varlığıyla değil; modelin belirli kişi hakkında kullanılmaya başlanmasıyla gerçekleşir.

Sınav değerlendirmesi içtihadı ile LMS skorları

Burada sınav değerlendirmesine ilişkin Avrupa içtihadının mantığı da öğreticidir. Sınav kağıdı, değerlendirici notları ve bunların adayın geleceğini etkileme kapasitesi nasıl kişisel veri niteliğini güçlendiriyorsa, çok daha yoğun davranışsal izlerden türetilen LMS skorlarının da aynı hatta daha güçlü biçimde kişisel değerlendirme sayılması gerekir. Çünkü burada sistem yalnızca öğrencinin ne yaptığını kaydetmemekte; onun ne yapabileceği, neyi yapamayabileceği ve ne kadar güvenilir olduğu hakkında kurumsal kanaat üretmektedir. Bu kurumsal kanaat ise modern dijital eğitim ortamında klasik öğrenci dosyasının algoritmik versiyonu olarak çalışabilir.

EdTech İçin Etik Yönetişim Oluşturun

Teknolojiyi kullanan eğitim kurumları için uyum, risk yönetimi, yapay zeka etiği ve akademik dürüstlüğü kapsayan bütünsel bir çerçeveyi keşfedin.

Çıkarımsal kişisel veri: Öğrencinin verdiği veri ile sistemin ürettiği veri aynı şey değildir

Ham veri ile türetilmiş veri ayrımı

İkinci veri katmanı: çıkarım ve kurumsal yorum

Eğitim platformlarının hukuken en hassas boyutu, çoğu zaman öğrencinin doğrudan verdiği veriler değil, sistemin o verilerden türettiği yeni sonuçlardır. Öğrenci sisteme giriş saati, quiz notu veya ödev teslim zamanı gibi ham veriler bırakır. Fakat yapay zeka destekli sistemler bu ham verilerden yeni bir veri katmanı üretir: dikkat süresi, öğrenme temposu, hata örüntüsü, bırakma ihtimali, düşük motivasyon riski, zayıf katılım profili gibi.

İşte bu ikinci katman, yani sistemin çıkarım yoluyla oluşturduğu veri, veri koruma hukukunda ayrı bir önem taşır. Çünkü burada kişi yalnızca kendisi hakkında bilgi vermemektedir; kurum, onun davranışlarını yorumlayarak yeni bir kişisel veri üretmektedir. Bu nedenle risk skoru veya başarı tahmini, yalnızca istatistiksel bir yardımcı çıktı değil; ilgili kişi üzerinde etki yaratabilecek bağımsız bir veri türüdür.

Bu ayrım özellikle önemlidir; çünkü eğitim kurumları çoğu zaman "biz öğrenciden yalnızca kullanım verisi alıyoruz" diyerek işleme faaliyetini dar göstermeye eğilimlidir. Oysa hukuk, yalnızca toplanan ham veriye değil, o veriden ne üretildiğine de bakar. Öğrenci hakkında oluşturulan tahminler, etiketler ve sınıflandırmalar, sistemin görünmeyen ama en güçlü çıktılarıdır. Nitekim risk, çoğu zaman öğrencinin verdiği veride değil; onun hakkında söylenen şeyde ortaya çıkar.

Hassas alanlara sıçrayan çıkarımlar

Daha da önemlisi, bu çıkarımlar bazı durumlarda çok daha hassas alanlara uzanabilir. Dikkat süresi, davranış örüntüsü, tekrar sayısı ya da etkileşim biçiminden sağlık, nöroçeşitlilik, ruh hali veya psikolojik durum hakkında sonuçlar çıkarılmaya başlanırsa, artık mesele yalnızca eğitim performansı olmaktan çıkar. Böyle bir durumda veri işleme, özel koruma gerektiren alanlara yaklaşır ve hukuki denetim keskinleşir. Özellikle duygu çıkarımı, davranışsal gözetim ve biyometrik nitelik taşıyan analiz katmanları, eğitim bağlamında en riskli uygulamalar arasında yer alır.

Çıkarımın normatif gücü

Ölçüm mü, yorumlama modelinin ürünü mü?

Akademik düzlemde bunun anlamı şudur: çıkarımsal veri, yalnızca mevcut bir gerçekliğin "ölçümü" değildir; çoğu kez istatistiksel olasılığı bireysel kanaate dönüştüren normatif bir üretimdir. Sistem, öğrencinin dikkatinin düştüğünü "tespit" etmez; belirli davranış kalıplarını kendi modeli içinde bu sonuca eşler. Dolayısıyla üretilen skor ya da etiket, dış dünyadaki kesin bir olgunun kaydı değil; veri sorumlusu tarafından tasarlanan bir yorumlama modelinin sonucudur. Bu tespit, hukuk açısından iki nedenle önemlidir. İlk olarak, çıkarımın hatalı olma olasılığı ham veriden daha yüksektir. İkinci olarak, çıkarımın kişi üzerindeki etkisi çoğu zaman ham veriden daha ağırdır; çünkü kurumlar kararlarını çoğu zaman doğrudan tek tek log kayıtlarına değil, bu loglardan türetilen anlam katmanlarına dayanarak verir.

Erişim ve itiraz: ham veri yetmez

Bu nedenle ilgili kişinin erişim ve itiraz hakkının ham verilerle sınırlı yorumlanması yetersiz kalır. Eğer öğrenci yalnızca kendi tıklama verilerini görebiliyor, fakat bu verilerden türetilen "riskli profil" sonucuna erişemiyorsa, hukuken korunması gereken esas etki alanı görünmez hale gelir. Kaynak yazıların isabetle işaret ettiği gibi, veri koruma hukukunun güncel yönelimi yalnızca verilen veriyi değil, veri sorumlusunun kişi hakkında ürettiği türetilmiş ve çıkarımsal veriyi de koruma alanına dahil etmektedir. Eğitim teknolojileri açısından bu yaklaşım vazgeçilmezdir; zira asıl müdahale ham veri seviyesinde değil, o verinin yorumlanması seviyesinde yoğunlaşmaktadır.

Erken uyarı sistemi ile damgalama arasındaki çizgi

Destekleyici müdahale ile etiketleme arasındaki fark

Yardım sinyali ile kalıcı etiket

Öğrenme analitiğinin savunulan en güçlü işlevlerinden biri erken uyarı mekanizmalarıdır. Gerçekten de bir öğrencinin desteğe ihtiyaç duyduğunu erkenden fark etmek, ona mentorluk sunmak, ders planını uyarlamak veya ek akademik yardım sağlamak, eğitim kurumunun destek yükümlülüğüyle uyumlu olabilir. Sorun, bu uyarı mekanizmasının bir yardım çağrısı olarak mı, yoksa kalıcı bir etiket olarak mı tasarlandığında ortaya çıkar.

Bir öğrenciye "bu hafta ek destek önerilir" demek ile "bu öğrenci yüksek riskli profildir" demek aynı şey değildir. İlki belirli bir amaç için üretilmiş geçici, destek odaklı ve sınırlı bir müdahale sinyali olabilir. İkincisi ise öğrenciye yapışan, başka karar mekanizmalarına da sızabilen ve onun hakkında kalıcı beklenti üreten bir sınıflandırmaya dönüşebilir. Hukuken sakıncalı damgalama da tam bu noktada başlar.

Sakıncalı skorun göstergeleri

Bir risk skorunun sakıncalı hale gelmesinin başlıca göstergeleri şunlardır: skorun kalıcı kayda dönüşmesi, öğretim dışı aktörlerle paylaşılması, burs, disiplin, geçme, sertifika veya performans değerlendirmesi gibi başka kararlarda kullanılmaya başlanması, hatalı sınıflandırmalar için etkili düzeltme ve itiraz mekanizmasının bulunmaması ve kişinin makul beklentisini aşan bir gözetim yoğunluğuna dayanması. Bu tür bir mimaride sistem artık öğrenciye yardım etmez; öğrenci hakkında hüküm üretir.

Tasarımda ayrım: niyet değil, mimari

Bu yüzden erken uyarı ile damgalama arasındaki fark niyette değil, tasarımdadır. Yardım odaklı bir sistem geçici, sınırlı, itiraz edilebilir ve pedagojik amaçla bağlı kalır. Damgalayıcı sistem ise öğrenciyi "riskli", "zayıf", "başarısızlığa yatkın" gibi kategorilere yerleştirir ve bu kategorileri kurumsal kararların parçası haline getirir.

Yapısal eşitsizlik ve sessiz dışlama

Kaynak ayrımı ve sessiz dışlama

Kaynak yazılardaki önemli katkılardan biri de şudur: erken uyarı mekanizmaları, yalnızca destekleyici araçlar olarak değil, kurumsal kaynak dağıtımı araçları olarak da çalışabilir. Eğer kurum sınırlı rehberlik, mentorluk veya burs imkanlarını yalnızca "yatırım yapılabilir" görülen öğrencilere yönlendiriyor; algoritmanın düşük başarı ihtimali atfettiği öğrencileri ise pasif biçimde dışarıda bırakıyorsa, erken uyarı sistemi görünüşte nötr olsa bile yapısal eşitsizlik üreten bir ayıklama mekanizmasına dönüşebilir. Bu nedenle damgalama riski yalnızca açıkça olumsuz etiketlemede değil, sessiz dışlama pratiklerinde de ortaya çıkar.

Model önyargısı ve kurumsal pekiştirme

Özellikle tarihsel verilerle eğitilen modellerin geçmiş eşitsizlikleri yeniden üretme ihtimali dikkate alındığında, sosyoekonomik kırılganlık, dil farkı, erişim problemi veya farklı öğrenme stilleri gibi değişkenler "yüksek risk" etiketi altında görünmez biçimde cezalandırılabilir. Böyle bir tabloda sistem, başarısızlığı yalnızca öngörmekle kalmaz; kurumsal tepkiyi belirleyerek onu pekiştirebilir. Akademik ve hukuki açıdan sakınca da buradadır: araçsal olarak destek için kurulan sistem, normatif olarak öğrenciyi kategorize edip fırsat alanını daraltan bir mekanizmaya dönüşebilir.

Kurumlar bu skorlara dayanarak işlem yapabilir mi?

Önemli etki doğuran kararlar

Önemli etki eşiği ve örnek sonuçlar

En kritik sorulardan biri budur. Bir okul, üniversite veya işveren; "bu kişi dersi bırakabilir", "bu çalışan eğitimi geçemeyebilir" veya "yüksek riskli kullanıcı" şeklindeki sistem çıktısına dayanarak kişi hakkında işlem tesis edebilir mi? Kural olarak, bu soruya verilecek cevap, alınan kararın birey üzerinde hukuki ya da benzeri derecede önemli bir etki doğurup doğurmadığına bağlıdır.

Eğer üretilen skor yalnızca öğretmene destek amacıyla sunulan, bağlayıcı olmayan ve insan değerlendirmesiyle kolayca aşılabilen düşük etkili bir uyarı niteliğindeyse, her durumda otomatik karar alma yasağından söz etmek gerekmez. Ancak aynı skor; bursun kesilmesi, ileri seviyedeki bir derse erişimin sınırlandırılması, disiplin sürecinin başlatılması, sertifikanın verilmemesi, performans değerlendirmesinin düşürülmesi ya da işe uygunluk sonucunun olumsuz etkilenmesi gibi önemli sonuçlara yol açıyorsa, hukuki çerçeve sertleşir.

Burada dikkat edilmesi gereken nokta, "nihai kararı insan verdi" cümlesinin tek başına koruyucu olmamasıdır. Eğer insan, sistemin ürettiği skoru fiilen belirleyici kabul ediyor; onu sorgulamadan onaylıyor ya da kurumsal pratikte skor kararı neredeyse otomatik biçimde yönlendiriyorsa, görünüşte insani olan süreç gerçekte otomasyonun uzantısına dönüşebilir. Hukuk, kağıt üzerinde kimin imza attığından çok, kararda hangi unsurun belirleyici olduğuna bakar.

Bu nedenle kurumlar, özellikle eğitim ve çalışma hayatı üzerinde etkili risk skorlarını belirleyici karar motoru haline getirmemelidir. En fazla, insan değerlendirmesine yardımcı olan, bağlamsal olarak yorumlanan ve gerektiğinde kolayca göz ardı edilebilen bir sinyal olarak kullanılmalıdır. Aksi halde, öğrenci dosyası ile algoritmik kader çizgisi birbirine karışmaya başlar.

Karar destek sistemi savunmasının sınırı

Formel insan onayı ile fiili belirleyicilik

Burada hukuki değerlendirme yapılırken kararın formel yapısından ziyade maddi etkisine bakmak gerekir. Bir burs komisyonu ya da eğitim yöneticisi, teknik olarak son sözü kendisi söylüyor olsa bile, sistemin ürettiği skor pratikte belirleyici ölçüt haline gelmişse, insan müdahalesinin gerçekliği sorgulanmalıdır. Kaynak metinlerde aktarılan Avrupa yaklaşımı da tam olarak bunu vurgular: kağıt üzerindeki insan imzası, eğer kararın omurgası algoritma tarafından kurulmuşsa, tek başına yeterli güvence sağlamaz. Bu nedenle eğitim kurumlarının "karar destek sistemi" söylemini, sistemin fiili kullanım biçimiyle birlikte değerlendirmesi gerekir.

Bağlama göre hukuki yoğunluk

Bir diğer önemli nokta da şudur: aynı skor farklı bağlamlarda farklı hukuki yoğunlukta sonuç doğurur. Öğrenciye ek ders önerilmesi ile bursunun kesilmesi, çalışan için ek eğitim planlanması ile performans notunun düşürülmesi aynı düzlemde değerlendirilemez. Bu nedenle her AI destekli değerlendirme için tek tip meşruiyet analizi yapmak yerine, skorun hangi karar alanına, ne derece bağlayıcı biçimde ve ne ölçüde olumsuz etkiyle taşındığı ayrıca incelenmelidir. Akademik söyleyişle ifade edilirse, burada belirleyici olan yalnızca veri işleme faaliyeti değil; veri işleme çıktısının karar mimarisindeki normatif ağırlığıdır.

Kişiselleştirme ile davranışsal gözetim arasındaki fark

Pedagojik gereklilik testi

Minimum veri mi, maksimum haritalama mı?

Eğitim teknolojileri çoğu zaman "kişiselleştirme" söylemiyle meşrulaştırılır. Gerçekten de her öğrencinin aynı hızda öğrenmediği düşünüldüğünde, belirli ölçüde veri temelli uyarlama pedagojik olarak anlamlıdır. Fakat kişiselleştirme ile davranışsal gözetim arasındaki sınır aşıldığında, eğitim teknolojisi destekleyici araç olmaktan çıkar ve sürekli izleme mekanizmasına dönüşür.

Bu ayrımın en basit testi şudur: Toplanan veri, gerçekten öğrenmeyi iyileştirmek için gerekli minimum veri midir; yoksa kurum, pedagojik fayda bahanesiyle öğrencinin davranış alanını olabildiğince ayrıntılı biçimde haritalamaya mı çalışmaktadır? Modül tamamlama, tekrar sayısı ve yanlış konu kümeleri gibi sınırlı verilerle yetinmek başka; ekran başında kalma süresi, mikro duraksamalar, gezinme paternleri, çoklu cihaz davranışları, ses-görüntü analizi veya dikkat tahmini gibi derin izleme katmanları kurmak başkadır.

Davranışsal gözetimin hukuki sorunu yalnızca veri çokluğu değildir. Asıl sorun, öğrencinin öğrenen özne olmaktan çıkıp sürekli ölçülen bir davranış nesnesine dönüşmesidir. Sürekli izlendiğini bilen kişi, hata yapma, deneme, geri dönme ve farklı yöntemler geliştirme özgürlüğünü kaybedebilir. Böylece öğrenme ortamı, destekleyen bir pedagojik alan olmaktan uzaklaşıp görünmez bir disiplin alanına dönüşebilir. Hukuk da tam bu noktada ölçülülük, amaçla sınırlılık ve makul beklenti ilkelerini devreye sokar.

Gözetimin meşrulaştırıcı dili olarak kişiselleştirme

Eğitim hakkı ve normatifleştiren LMS mantığı

Bu ayrım, yalnızca veri koruma hukuku bakımından değil, eğitim hakkının niteliği bakımından da önemlidir. Eğitim, öğrenciyi sürekli optimize edilen bir performans nesnesine indirgeme faaliyeti değildir; hata yapma, yavaşlama, farklı öğrenme ritimlerine sahip olma ve pedagojik deneyim yaşama özgürlüğünü de içerir. Eğer LMS tasarımı, öğrencinin her duraksamasını risk; her sapmasını anomali; her düşük etkileşimini gelecekteki başarısızlığın sinyali olarak yorumlayan bir mantıkla kuruluyorsa, sistem öğrenmeyi desteklemekten çok davranışı normatifleştiren bir gözetim rejimi üretir. Böyle bir rejimde kişiselleştirme söylemi, gözetimin meşrulaştırıcı dili haline gelebilir.

Duygu ve dikkat tahmini: sıkı denetim

Özellikle duygu çıkarımı, dikkat tahmini ve biyometrik yoğun analiz gibi uygulamalar bu nedenle eğitim bağlamında çok daha sıkı değerlendirilmelidir. Çünkü burada toplanan veri yalnızca "ne kadar öğrendi?" sorusuna değil, "nasıl hissetti?", "nasıl tepki verdi?", "nasıl bir zihin durumunda bulundu?" gibi mahrem alanlara yönelmektedir. Kaynak yazılarda da vurgulandığı üzere, eğitim için gerekli olan ile salt mümkün olduğu için yapılan izleme arasında hukuken belirleyici bir fark vardır. Pedagojik gereklilik testi bu yüzden formalite değil, temel sınırdır.

Öğrencinin ve çalışanın hangi hakları açıkça tanınmalıdır?

Görünür kılınması gereken haklar

Profil çıktısına erişim ve asgari hak seti

Bu tür sistemlerde bireyin korunması, yalnızca genel bir aydınlatma metniyle sağlanamaz. Çünkü kişi hakkında asıl etkiyi yaratan unsur ham veri değil; sistemin ürettiği profil sonucudur. Bu nedenle öğrenci veya çalışan, yalnızca kendisinden toplanan verileri değil, kendisi hakkında üretilen skorları, profilleri, tahminleri ve önerilen müdahale sonuçlarını da görebilmelidir.

Asgari düzeyde tanınması gereken haklar şunlardır: veriye erişim, profil sonucunu öğrenme, yanlış veya eksik verinin düzeltilmesini isteme, profil sonucuna itiraz etme, kendisi hakkında yapılan çıkarımın hangi veri kategorilerine dayandığını anlayabilme, otomatik değerlendirme varsa bunun mantığı ve olası etkileri hakkında açıklama talep edebilme ve nihayet anlamlı bir insan incelemesi isteme hakkı.

İtiraz: ham veri ile etiket ayrımı

Burada özellikle vurgulanması gereken husus, itiraz hakkının yalnızca ham veriye ilişkin olmamasıdır. Öğrenci, "sisteme geç girdim" bilgisinin yanlış olduğunu söyleyebildiği gibi, "bu davranışımın beni yüksek riskli olarak etiketlemesi hatalıdır" deme imkanına da sahip olmalıdır. Eğer hukuk yalnızca veri girişine bakar, fakat veriden üretilen etiketlere kapalı kalırsa, profil çıkarma faaliyetinin en etkili kısmı denetim dışında kalır.

Açıklama hakkı ile erişim hakkı arasındaki fark

Hakların iş akışına dökülmesi

Bu haklar kurumsal belgelerde soyut vaatler olarak bırakılmamalı; işlem akışlarına dönüştürülmelidir. Öğrenci profil sonucunu nereden görecek, hangi süre içinde itiraz edecek, itirazı kim inceleyecek, hangi veri kategorileri kararın oluşumunda etkili kabul edilecek, sistem çıktısı geçici olarak askıya alınabilecek mi, insan incelemesi sonucunda skor silinebilecek mi gibi soruların önceden cevaplanması gerekir. Aksi halde "hak tanıma" görünürde kalır; pratikte kişi yalnızca kendisi hakkında hüküm veren sistemi seyretmekle yetinir.

Bilgi ile anlamlandırma

Akademik olarak bakıldığında, burada açıklama hakkı ile erişim hakkı arasında da önemli bir ayrım vardır. Kişinin yalnızca kendisi hakkında veri işlendiğini bilmesi yeterli değildir; o verinin hangi mantıkla bir sonuca bağlandığını anlayabilmesi gerekir. Elbette eğitim kurumundan her zaman algoritmik kodu açıklaması beklenmez; ancak hangi veri kategorilerinin etkili olduğu, hangi davranış örüntülerinin skoru artırdığı, bu sonucun ne tür kurumsal etkilere yol açabileceği ve kişinin bunu hangi yollarla düzeltebileceği açık biçimde anlatılmalıdır. Kaynak metinlerde öne çıkan yaklaşım da budur: açıklama, teknik sırları ifşa etmekten çok, kişiye kendisi hakkındaki sonuca anlamlı biçimde itiraz edebilme imkanı tanımaktır.

İnsan denetimi ne demektir?

Şekli onay ile anlamlı denetim ayrımı

Rutin onay ile bağımsız sorgulama

Eğitim teknolojilerinde en sık kullanılan güvence ifadelerinden biri "insan denetimi"dir. Ne var ki bu kavram çoğu zaman yanıltıcı biçimde kullanılmaktadır. Bir görevlinin ekranda beliren sonucu rutin biçimde onaylaması, insan denetimi değildir. Anlamlı insan denetimi, kararı gerçekten tartabilecek, sistemin sınırlarını anlayabilecek, çıktıyı sorgulayabilecek ve gerektiğinde sonucu geçersiz kılabilecek bağımsız bir değerlendirme mekanizması anlamına gelir.

Bu nedenle insan denetiminin asgari unsurları açık olmalıdır. Denetimi yapan kişi sistemin neyi ölçtüğünü ve neyi ölçemediğini bilmeli; otomasyon yanlılığına kapılmadan skoru sorgulayabilmeli; öğrencinin bağlamını, özel durumunu ve açıklamasını dikkate alabilmeli; gerekçeli biçimde sistem sonucundan ayrılabilmeli ve kurumsal olarak bunun için yetki sahibi olmalıdır. Başka bir ifadeyle, öğretmenin veya idarecinin rolü "algoritmanın imzacısı" değil, "algoritmayı denetleyebilen karar verici" olmalıdır.

Eğer kurum kültürü, AI çıktısını sorgulayan insanı değil, onu hızla onaylayan insanı ödüllendiriyorsa, orada gerçek denetimden söz edilemez. Böyle bir düzende insan, güvence değil, yalnızca vitrindir.

Kurumsal tasarım: eğitim, zaman, override

Bu nedenle anlamlı insan denetimi, salt bireysel dikkat meselesi değil; kurumsal tasarım meselesidir. Denetimi yapan personele gerekli teknik eğitim verilmemişse, karar için yeterli zaman ayrılmıyorsa, sistem sonucundan ayrılmanın kurumsal maliyeti yüksekse veya personelin override yetkisi fiilen yoksa, kağıt üzerinde insan müdahalesi bulunsa da hukuki anlamda etkili bir denetim kurulmuş sayılmaz. Eğitim ve işyeri bağlamında AI kullanımının en zayıf halkası çoğu zaman tam da budur: insan süreçte vardır, ama kararı gerçekten değiştirecek kapasiteye sahip değildir.

Bilgi, yetki ve gerekçe üçlüsü

Bu yüzden insan denetimi, en az üç boyutta düşünülmelidir: bilgi, yetki ve gerekçe. Bilgi boyutu, denetçinin sistemin sınırlarını anlayabilmesini; yetki boyutu, sonucu değiştirebilmesini; gerekçe boyutu ise neden sistem sonucundan ayrıldığını veya neden ona katıldığını açıklayabilmesini ifade eder. Bu üç unsurdan biri eksik olduğunda, insan denetimi gerçek bir temel hak güvencesi olmaktan uzaklaşır.

Aynı veri başka amaçlarla kullanılabilir mi?

Amaçla sınırlılık ilkesinin işlevi

Eğitim verisi ile yaptırım amaçları

Makalenin belki de en pratik sonucu budur: eğitim amacıyla toplanan veri, kendiliğinden disiplin, insan kaynakları, performans ölçümü veya işe uygunluk değerlendirmesi amacıyla kullanılabilir hale gelmez. Öğrenciye destek olmak için toplanan LMS verilerinin daha sonra burs kararı, disiplin yaptırımı, işyerinde performans puanı veya kariyer planlaması için kullanılması, çoğu durumda amaç dışı kullanım riskini doğurur.

Burada hukuk, verinin ilk toplandığı amaç ile sonraki kullanım arasında gerçek bir bağ olup olmadığına bakar. Eğer öğrenci, verisinin ders içeriğini uyarlamak için toplandığını düşünürken, aynı veri daha sonra aleyhine kurumsal kararlarda kullanılıyorsa, bu durum kişinin makul beklentisini aşar. Özellikle öğrenci-okul ve çalışan-işveren ilişkilerindeki yapısal bağımlılık dikkate alındığında, "zaten elimizde veri vardı" mantığı hukuken yeterli değildir.

Bu nedenle eğitim verileri ile karar verileri arasında açık bir ayrım kurulmalıdır. Öğrenme desteği için kullanılan veri akışının, disiplin veya istihdam sonuçları doğuran süreçlerle otomatik biçimde birleşmesi engellenmelidir. Aksi halde LMS, öğrenmeyi destekleyen bir platform olmaktan çıkar; kurumsal dosyalama ve gözetim altyapısına dönüşür.

Uyumluluk testi neden belirleyicidir?

Makul beklenti ve kurumsal teşvik

Bu bağlamda amaçla sınırlılık ilkesi, teknik bir uyum maddesi değil; kurumsal güç kullanımını sınırlayan temel bir hukuk ilkesidir. Çünkü eğitim kurumları ve işverenler ellerindeki veriyi farklı kurumsal hedefler için kullanma konusunda doğal bir teşvike sahiptir. Bir kez toplanmış verinin ikinci, üçüncü ve dördüncü amaçlar için de cazip hale gelmesi tipik bir kurumsal eğilimdir. Fakat tam da bu nedenle hukuk, verinin toplanma bağlamını ve ilgili kişinin makul beklentisini merkeze alır. Öğrenci, ders başarısını geliştirmek için kullandığı platformun ileride aleyhine delil üretmesini beklemez; çalışan da eğitim platformundaki davranışlarının sessizce performans değerlendirme aracına dönüşeceğini öngörmeyebilir.

Çok faktörlü değerlendirme

Kaynak yazılarda vurgulanan uyumluluk testi bu nedenle kritik önemdedir. İlk amaç ile sonraki amaç arasındaki ilişki, verinin niteliği, güç dengesizliği, sonraki kullanımın kişi üzerindeki etkisi ve mevcut güvenceler birlikte değerlendirilmelidir. Eğitim desteği için toplanan verinin disiplin, terfi, işe uygunluk veya performans yaptırımı alanına taşınması çoğu durumda bu testten kolayca geçemez. Akademik olarak söylenirse, burada sorun yalnızca yeni bir veri işleme amacı değil; pedagojik ilişkinin yaptırım ilişkisine dönüştürülmesidir.

Çocuklar, üniversite öğrencileri ve çalışanlar aynı düzeyde mi korunmalıdır?

Güç dengesizliği ve kırılganlık

Çocuk, öğrenci ve çalışanda farklı risk

Hayır. Aynı profil çıkarma mekanizması, uygulandığı kişi grubuna göre farklı hukuki sonuçlar doğurur. Çocuklar bakımından koruma seviyesi çok daha yüksektir. Çünkü çocuklar, verilerinin nasıl işlendiğini, bunun gelecekte ne tür sonuçlar doğurabileceğini ve algoritmik etiketlerin ne anlama geldiğini yetişkinler kadar kavrayamayabilir. Bu nedenle çocuklara ilişkin profil çıkarma faaliyetlerinde hem daha sıkı bir gereklilik testi hem de daha güçlü bir koruma yaklaşımı gerekir.

Üniversite öğrencileri yetişkin olsa da, kuruma karşı tam anlamıyla özgür bir pazarlık gücüne sahip değildir. Benzer durum çalışanlar için de geçerlidir. İşverenin sunduğu eğitim platformuna katılmak zorunda olan bir çalışan bakımından, veri işleme şartlarına verilen onayın gerçekten özgür olup olmadığı her zaman tartışmalıdır. Bu yüzden eğitim ve istihdam bağlamında "rıza aldık" savunması çoğu olayda tek başına yeterli bir güvence oluşturmaz. Güç dengesizliğinin bulunduğu alanlarda asıl mesele, rızanın varlığı değil; sistemin ölçülü, şeffaf, denetlenebilir ve hak temelli kurulup kurulmadığıdır.

Farklı gruplar için farklı koruma yoğunluğu

Birikimli etki ve işyeri dinamiği

Bu farklılaşma, koruma rejiminin derecesini doğrudan etkiler. Çocuklar bakımından profil çıkarma faaliyetinin geleceğe taşınan dijital iz üretme kapasitesi çok daha sakıncalıdır; çünkü çocukluk çağında oluşturulan etiketler eğitim hayatı boyunca birikimli etki yaratabilir. Üniversite öğrencilerinde risk, akademik bağımlılık ve fırsat eşitsizliği üzerinden belirginleşir. Çalışanlar bakımından ise aynı mekanizmalar iş ilişkisindeki hiyerarşi, performans baskısı ve rızanın serbestliği sorunuyla kesişir. Dolayısıyla aynı algoritmik model, farklı gruplarda aynı teknik işlem olsa bile aynı hukuki ağırlıkta değerlendirilemez.

Hukuka uygun bir sistem için asgari yönetişim ilkeleri

Asgari kurumsal tasarım ilkeleri

Beş ilke: amaç, minimizasyon, şeffaflık, etki, denetim

Bir kurum kişiselleştirilmiş eğitim sistemlerini tamamen terk etmek zorunda değildir. Ancak bu sistemleri hukuka uygun tasarlamak istiyorsa, belirli asgari yönetişim ilkelerini benimsemek zorundadır.

Her şeyden önce amaç mimarisi net olmalıdır. "Öğrenme desteği", "erken uyarı", "ölçme-değerlendirme", "disiplin" ve "İK kullanımı" aynı veri sepeti içinde eritilmemelidir. Hangi verinin hangi amaç için toplandığı, kimlerin erişeceği ve başka amaçlara hangi şartlarda kesinlikle aktarılamayacağı önceden belirlenmelidir.

İkinci olarak veri minimizasyonu temel ilke olmalıdır. Kurum, aynı sonuca daha az veriyle ulaşabiliyorsa, daha yoğun gözetim tekniklerine yönelmemelidir. Özellikle ses, görüntü, biyometrik katmanlar, duygu çıkarımı ve derin davranış izleme teknikleri istisnai değilse meşrulaştırılmamalıdır.

Üçüncü olarak çıkarımsal veri şeffaflığı sağlanmalıdır. Kullanıcılar yalnızca ham verilerinin toplandığını değil, kendileri hakkında skor, profil ve tahmin üretildiğini de açıkça bilmelidir. Sistemin hangi veri kategorilerine dayandığı, bu verilerin ne tür sonuçlar doğurabileceği ve bu sonuçlara nasıl itiraz edilebileceği anlaşılır biçimde ortaya konulmalıdır.

Dördüncü olarak etki değerlendirmesi ve ayrımcılık testi yapılmalıdır. Eğitim ve çalışma hayatı üzerinde önemli etki doğurabilecek sistemler devreye alınmadan önce, mahremiyet riski, hatalı pozitif sonuçlar, grup bazlı önyargı ve temel hak etkileri bakımından değerlendirilmelidir. Çünkü teknik doğruluk tek başına hukuki meşruiyet anlamına gelmez.

Son olarak insan denetimi, saklama süresi, rol bazlı erişim ve bağımsız denetim mekanizmaları kurulmalıdır. Skorlar süresiz saklanmamalı; herkes tarafından görülebilmemeli; düzenli denetime tabi olmalı; gerektiğinde sistemin askıya alınmasını sağlayacak kurumsal prosedürler bulunmalıdır.

Uyumdan yönetişime geçiş

Politika ötesi: tasarım ve bağımsız doğrulama

Bu ilkeler bir araya getirildiğinde, ortaya yalnızca veri koruma uyumu değil, aynı zamanda eğitim kurumları için bir algoritmik yönetişim modeli çıkar. Böyle bir modelde kurum, teknik olarak mümkün olan her şeyi toplamak yerine hukuken ve pedagojik olarak gerekli olanla yetinir; öğrenciyi öngörü nesnesine değil, hak sahibi özneye dönüştürür. Kaynak yazıların ortak sonucu da budur: hukuka uygunluk, sonradan hazırlanan aydınlatma metinleriyle değil; sistemin baştan hangi varsayımla tasarlandığıyla belirlenir.

Bu nedenle iyi bir yönetişim çerçevesi, yalnızca politika metinlerinden ibaret olmamalıdır. Tasarım aşamasında etki değerlendirmesi yapılmalı; veri setleri önyargı bakımından test edilmeli; yüksek etkili skorlar için periyodik gözden geçirme mekanizması kurulmalı; kullanıcıya yönelik açıklamalar sade ama içerik olarak güçlü olmalı; öğretmenler ve yöneticiler için AI okuryazarlığı eğitimi sağlanmalı; son olarak da sistemin gerçekten pedagojik fayda üretip üretmediği bağımsız gözle denetlenmelidir. Çünkü kötü tasarlanmış bir sistemde uyum dili, çoğu zaman yalnızca meşrulaştırma işlevi görür.

Eğitimde Yapay Zeka Hukukunun Karmaşık Alanında Yolunuzu Bulun

Türkiye'nin uzaktan eğitim sektöründe yapay zekanın yasal sınırlarını, veri gizliliği endişelerini, algoritmik yanlılığı ve kurumsal sorumlulukları anlayın.

Sonuç: LMS verisi hangi noktada öğrenci dosyasına dönüşür?

Dönüşümün gerçekleştiği eşik

Öğrenci dosyası eşiği

Bu sorunun en açık cevabı şudur: LMS verisi, öğrenciye ilişkin yalnızca geçmişi kaydeden bir kullanım verisi olmaktan çıkıp; öğrencinin performansını, güvenilirliğini, başarısını, riske yatkınlığını veya gelecekteki davranışını değerlendiren, sınıflandıran ve kurumsal kararlarda etkili olan bir yapıya dönüştüğü anda "öğrenci dosyası" niteliği kazanmaya başlar.

Toplamak değil, hüküm üretmek

Hukuk, öğrenme analitiğine kategorik olarak karşı değildir. Karşı olduğu şey, pedagojik destek söylemi altında bireyin görünmez biçimde puanlanması, etiketlenmesi ve bu etiketlerin onun eğitim ya da çalışma hayatını belirleyen karar altyapısına dönüşmesidir. Kısacası sorun, verinin toplanması değil; verinin kişi hakkında hüküm üretmeye başlamasıdır.

Anlama ile kategoriye hapsederek yönetme

Bu nedenle yapay zeka destekli eğitimde asıl hukuki test şudur: Sistem öğrenciyi anlamaya mı çalışıyor, yoksa onu önceden tanımlanmış bir kategoriye yerleştirip geleceğini bu kategori üzerinden mi yönetiyor? Eğer ikinci ihtimal baskın hale gelmişse, artık elimizde masum bir öğrenme analitiği aracı değil; hukuken sıkı denetim gerektiren bir profil çıkarma mekanizması vardır.

Son değerlendirme

Kurumsal tercihlerin birleşimi

Son tahlilde, LMS verisinin "öğrenci dosyası"na dönüşmesi tek bir teknik anda değil, bir dizi kurumsal tercihin birleşiminde gerçekleşir. Veri kişiye bağlandığında, ondan çıkarım üretildiğinde, bu çıkarım karar süreçlerine taşındığında, kişi bu sonuca etkili biçimde itiraz edemediğinde ve sistemin ürettiği etiket zaman içinde kurumsal hafızaya yerleştiğinde, artık klasik anlamda bir eğitim verisinden değil; kişinin eğitimsel ve hatta mesleki geleceğini etkileyebilecek dijital dosyadan söz edilir. Hukuki bakımdan korunması gereken eşik de tam burasıdır.

Tartışmanın genişletilmesi gereken eksenler

Bu sebeple eğitimde yapay zeka tartışmasının merkezine yalnızca yenilik, verimlilik ve kişiselleştirme değil; sınıflandırma gücü, etiketleme riski ve karar etkisi de yerleştirilmelidir. Aksi halde eğitim teknolojileri, öğrenciye destek sunan araçlar olarak değil, görünmez ama son derece etkili birer kurumsal değerlendirme altyapısı olarak çalışmaya başlar. Hukukun görevi ise tam bu noktada, pedagojik faydayı imkansız kılmadan; fakat öğrencinin veriden ibaret görülmesini de engelleyerek sınırı çizmektir.

Post Tags :
Share this post :