Kurucu
August 4, 2025
26 min read
Uzaktan eğitim alanında yapay zekâ (YZ) teknolojilerinin kullanımı özellikle COVID-19 pandemisi sonrasında dünya genelinde epeyce hız kazanmıştır. YZ destekli öğrenme platformları, sanal asistanlar ve otomatik değerlendirme araçları sayesinde öğrencilere kişiselleştirilmiş destekler sunulabilmektedir. Örneğin Türkiye’de Millî Eğitim Bakanlığı’nın EBA platformunda uygulamaya konulan YZ destekli “EBA Asistan” uzaktan eğitim sürecinde öğrenci ve velilerin sorularına anında cevap vererek 6 hafta içinde yaklaşık 10 milyon mesaj yanıtlamıştır. Yine EBA’daki Akademik Destek Modülü yapay zekâ ile zenginleştirilerek özellikle sınavlara hazırlanan öğrenciler için kişiselleştirilmiş sorular ve yönlendirmeler sunmuş ve 1,17 milyon öğrenci tarafından kullanılmıştır. Bu gelişmeler uzaktan eğitimde YZ uygulamalarının potansiyelini gösterirken; kişisel verilerin gizliliği, algoritmik şeffaflık, adil ve ayrımcılık yapmayan sistemlerin tasarımı ile hesap verebilirlik gibi önemli hukuki ve etik meseleleri de beraberinde getirmektedir. Bu yazıda Türkiye merkezli olarak uzaktan eğitimde yapay zekâ kullanımının mevcut durumu incelenecek; KVKK (Kişisel Verileri Koruma Kanunu) bağlamında veri gizliliği, algoritmik kararların şeffaflığı, önyargı ve ayrımcılık riskleri ile yapay zekânın karar destek mekanizmalarında kullanımının doğurduğu hukuki sorular ele alınacaktır. Ayrıca öğrenci izleme, otomatik değerlendirme ve adaptif öğrenme sistemleri gibi uygulamaların hukuki sınırları tartışılacak; idari ve etik sorumluluklar ile denetim mekanizmaları değerlendirilecektir.
Türkiye’de uzaktan eğitimin yaygınlaşması, özellikle 2020’de pandemi nedeniyle milyonlarca öğrencinin çevrim içi platformlara yönelmesiyle hız kazanmıştır. Bu dönemde EBA (Eğitim Bilişim Ağı) gibi dijital eğitim platformları, dünyada en çok ziyaret edilen eğitim siteleri arasına girmiş ve uzaktan eğitim sürecinde 18 milyona yakın öğrenciyi kesintisiz eğitime dahil etmiştir.
EBA bünyesinde yapay zekâ teknolojilerinin kullanılmasıyla öğrencilerin deneyiminin iyileştirilmesine çalışılmıştır. Örneğin EBA Akademik Destek modülü yapay zekâ ile güçlendirilerek öğrencilerin performansına göre soru önerileri sunmuş ve uzaktan eğitim sürecinde yoğun ilgi görmüştür. Bunun yanı sıra, EBA Asistan adlı sohbet botu, Nisan 2020’den itibaren kullanıma girerek doğal dil işleme teknikleriyle öğrencilerin sorularını anlamış ve şifre alma, ders programı öğrenme, öğretmenle görüşme gibi konularda anlık yanıtlar vermiştir. Bu asistanın altı hafta içinde 2,68 milyon kullanıcıdan gelen neredeyse 10 milyon soruyu yanıtlaması, uzaktan eğitim sırasında YZ tabanlı desteğe duyulan ihtiyacı da göstermektedir.
Yükseköğretim kurumları da uzaktan eğitimde YZ uygulamalarını araştırmaya başlamış; özellikle açık ve uzaktan öğretim yapan üniversiteler, sohbet botları ve öğrenme analitiği araçlarını öğrenci destek hizmetlerine entegre etmeyi denemiştir. Anadolu Üniversitesi’nde 2010’lardan bu yana yapay zekâ tabanlı bir sanal danışman, uzaktan eğitim öğrencilerine bilgi sağlama amacıyla pilot olarak kullanılmıştır. Son yıllarda üniversiteler YZ konusunda stratejik adımlar atmakta; Türkiye Ulusal Yapay Zekâ Stratejisi (2021-2025) kapsamında üniversitelere YZ alanında lisansüstü programlar açma, AR-GE kapasitesini artırma gibi görevler verilmektedir. Bununla birlikte, yakın tarihli bir çalışma Türkiye’de eğitimde YZ kullanımına dair farkındalığın hala düşük olduğunu ve paydaşlar arasında YZ’nin nasıl uygulanacağı konusunda bilgi eksikliği bulunduğunu ortaya koymuştur. Dolayısıyla, YZ’nin uzaktan eğitimde verimli ve güvenli bir şekilde benimsenmesi için hem teknik altyapının geliştirilmesine hem de hukuki/etik çerçevenin güçlendirilmesine ihtiyaç vardır.
Uzaktan eğitimde kullanılan yapay zekâ sistemleri, genellikle öğrencilere ait kişisel verileri işleyerek çalışır. Öğrenci kayıt bilgileri, sınav ve ödev sonuçları, çevrim içi etkinlik verileri, ses ve görüntü kayıtları gibi veriler YZ algoritmaları tarafından analiz edilebilir. Bu durum Türkiye’de 6698 sayılı Kişisel Verilerin Korunması Kanunu (KVKK) ve ilgili mevzuat kapsamında önemli yükümlülükler doğurmaktadır.
KVKK uyarınca eğitim kurumları, öğrencilerin kişisel verilerini hukuka uygun şekilde işlemeden sorumludur; veri işleme faaliyetleri belirli, açık ve meşru amaçlar için olmalı, gerektiğinden fazla ve amaçla bağlantılı veri toplanmamalıdır. Özellikle uzaktan sınav gözetimi gibi uygulamalarda öğrencilerin kamera görüntülerinin kaydedilmesi biyometrik veri niteliği taşıyabileceğinden, KVKK kapsamında “özel nitelikli kişisel veri” kategorisine girer ve daha sıkı tedbirler gerektirir. Bu bağlamda kurumların açık rıza süreçlerini eksiksiz yürütmesi, öğrencileri hangi verilerin ne amaçla toplandığı konusunda aydınlatması ve gerekirse alternatif yöntemler sunması beklenir. Örneğin KVKK’nın YZ alanındaki tavsiyeleri, her bir proje için özel bir veri koruma uyum programı oluşturulmasını; veri minimizasyonunun sağlanmasını ve yüksek riskli durumlarda Mahremiyet Etki Değerlendirmesi (MED) yapılmasını önermektedir.
Veri güvenliği de bu kapsamda kritik bir unsurdur. Uzaktan eğitim platformları, öğrencilerin kişisel verilerini siber saldırılara karşı korumakla yükümlüdür. KVKK uygun teknik ve idari tedbirlerin alınmasını emrederken; yapay zekâ sistemlerinin geliştiricilerine de “başlangıçtan itibaren gizlilik” (privacy by design) ilkelerine uyma sorumluluğu yüklemektedir. Türkiye’de KVKK 2021 yılında “Yapay Zekâ Alanında Kişisel Verilerin Korunmasına Dair Tavsiyeler” yayınlayarak YZ uygulamalarında temel hak ve özgürlüklerin korunması gerektiğini vurgulamıştır. Bu tavsiyeler arasında, veri işlemede şeffaf olunması, ilgili kişilere verilerinin işlenmesini durdurma ve sildirme hakkının tanınması, ve verilerin anonimleştirilerek kullanılması gibi prensipler bulunmaktadır.
Özellikle öğrenciler ve veliler, uzaktan eğitim sistemlerinde toplanan veriler konusunda bilgilendirilmeli ve bu veriler üzerindeki haklarını (erişim, düzeltme, silme vb.) kullanabilmelidir. Aksi takdirde KVKK kapsamında öğrenciler veri sorumlusu eğitim kurumu hakkında şikâyette bulunabilir ve Kurul tarafından idari yaptırımlar uygulanabilir. Sonuç olarak uzaktan eğitimde YZ kullanımı, güçlü bir gizlilik ve veri koruma altyapısı üzerinde inşa edilmelidir. Bu da hem yasal uyum hem de öğrencilerin dijital ortamlara güven duyması için elzemdir.
Yapay zekâ algoritmalarının eğitimde kullanımı, beraberinde algoritmik şeffaflık ilkesini gündeme getirmektedir. “Kara kutu” şeklinde çalışan ve nasıl karar verdiği anlaşılamayan sistemler, öğrenciler ve eğitimciler açısından güven sorunlarına yol açabilmektedir.
Hukuken Türkiye’de KVKK ve genel hukuk ilkeleri uyarınca, bireylerin kendileriyle ilgili işlemler hakkında bilgi alma hakkı bulunmaktadır. Her ne kadar KVKK’da GDPR’daki gibi otomatik karar alma ile ilgili özel bir madde olmasa da, aydınlatma yükümlülüğü kapsamında eğer öğrenciler bir YZ tarafından değerlendirmeye tabi tutuluyorsa bunun yöntemine dair bilgi verilmesi şeffaflığın bir gereğidir. KVKK’nın YZ rehberi de hesap verilebilirlik (accountability) ilkesini temel almakta; geliştiricilere ve karar alıcılara algoritmaların denetlenebilir ve açıklanabilir olmasını tavsiye etmektedir. Bu kapsamda, eğitim kurumlarının kullandıkları YZ araçlarının işleyişi hakkında asgari düzeyde de olsa şeffaflık sağlanması önemlidir. Örneğin bir üniversite otomatik bir sınav notu tavsiye sistemi kullanıyorsa, öğrencilere bu notun bir algoritma tarafından önerildiği ve hangi ölçütlerin dikkate alındığı açıklanmalı, öğrencinin itirazı halinde konuyu inceleyecek bir insan iradesi mekanizması bulunmalıdır. Nitekim KVKK tavsiyeleri, bireylere kendileriyle ilgili otomatik işlemlere itiraz hakkı tanınmasını ve gerekirse veri işleme faaliyetini durdurabilme imkanının sunulmasını öngörmektedir.
Algoritmik şeffaflık yalnızca kullanıcı bilgilendirmesiyle sınırlı değildir; aynı zamanda sistemin açıklanabilirliği (explainability) ile ilgilidir. Yapay zekâ kararlarının dayanaklarının denetlenebilmesi, haksız veya hatalı sonuçların tespitine imkan tanır. Bu da eğitim alanında örneğin bir YZ destekli değerlendirme aracının hangi kriterlere göre puanlama yaptığının veya bir adaptif öğrenme sisteminin öğrenciye hangi veriler ışığında belirli bir içeriği önerdiğinin anlaşılabilmesi anlamına gelir. Avrupa Birliği’nin hazırlık aşamasındaki YZ mevzuatı (AI Act) bu konuda açık bir yaklaşım sergilemekte ve yüksek riskli YZ sistemleri için kullanıcıların anlayabileceği şekilde bilgi sunma zorunluluğu getirmektedir. Türkiye’de henüz YZ özelinde bağlayıcı kurallar olmamakla birlikte genel şeffaflık ilkesi idare hukukundan sözleşme hukukuna kadar geniş bir yelpazede uygulanır ve eğitim kurumları da öğrencilerine karşı şeffaf olmakla yükümlüdür. Bu nedenle uzaktan eğitimde kullanılan YZ sistemlerinin tedarikçilerinden “white-box” modeller veya açıklama arayüzleri talep etmek, en azından karar süreçlerine dair özet raporlar sunmak iyi bir uygulama olacaktır. Sonuçta hesap verebilirlik ilkesi gereği, eğitim kurumları YZ’nin hatalarından veya olumsuz etkilerinden kaçınmak için gerekli tedbirleri almalı; aksi durumda hukuki ve idari sorumluluklarının doğacağını unutmamalıdır. Nitekim Türkiye’de hazırlanmış olan Taslak Yapay Zekâ Kanunu da (henüz yasalaşmasa da) yapay zekâ alanında güvenlik, şeffaflık, eşitlik, hesap verebilirlik ve mahremiyet ilkelerine uyulmasını genel çerçeve olarak sunmaktadır.
YZ sistemlerinin eğitimi için kullanılan veri setlerinin taraflı veya eksik olması algoritmik önyargı sorununu doğurur. Eğitimde yapay zekâ kullanılırken bu önyargılar, belirli öğrenci gruplarının sistematik olarak dezavantajlı konuma düşmesine yol açabilir. Örneğin 2020 yılında Birleşik Krallık’ta pandemi nedeniyle iptal edilen sınavlar yerine öğrencilerin notları bir algoritma ile tahmin edilmiş; ancak bu notlandırma algoritması, tarihsel okul başarılarına dayandığı için dezavantajlı okullardaki başarılı öğrencilerin notlarını düşürmüş, özel okullardaki öğrencileri ise görece kayırmıştır. Sonuçta algoritmanın sosyal eşitsizlikleri pekiştirdiği anlaşılınca yoğun tepki gelmiş ve hükümet algoritma sonuçlarını iptal etmek zorunda kalmıştır. Bu olay eğitimde YZ kullanımının ayrımcı etki yaratma potansiyeline çarpıcı bir örnektir. Hukuki açıdan bakıldığında; Türkiye’de Anayasa’nın eşitlik ilkesi ve ayrımcılık yasağı, eğitim kurumlarının doğrudan veya dolaylı ayrımcılığa yol açacak uygulamalardan kaçınmasını emreder. Eğer bir yapay zekâ sistemi ırk, cinsiyet, sosyo-ekonomik durum gibi faktörler temelinde ayrımcı sonuçlar üretiyorsa, bu sonuçları uygulayan kamu kurumu idari yargıda dava edilerek işlemin iptali istenebilir veya tazminat sorumluluğu doğabilir. Ayrıca KVKK’nın YZ tavsiyeleri, geliştiricilerin ayrımcılık riski yaratabilecek olası önyargıları tespit etmek için gerekiyorsa akademik kurumlarla iş birliği yapmasını ve tarafsız uzmanlardan görüş almasını önermektedir. Bu durum teknik bir sorunun ötesinde hukuki bir yükümlülük olarak da değerlendirilebilir; zira önyargıları giderilmeyen bir YZ uygulamasını kullanmak, ihmal sonucu ayrımcılık anlamına gelecektir.
Uluslararası örneklere baktığımızda, ayrımcılık yasağının YZ kullanımına teşmil edildiğini görüyoruz. ABD’de federal medeni haklar mevzuatı kapsamında okullarda ırk veya cinsiyet temelli ayrımcılık yasaktır ve Eğitim Bakanlığı bu konuda ihlalleri soruşturmaktadır. Yapay zekâ araçları tarafından dolaylı ayrımcılık yapılması da bu kapsamda incelenebilir. Örneğin, bir ABD okulunda kullanılan YZ tabanlı bir disiplin izleme sistemi siyahi öğrencileri orantısız şekilde işaretlerse, bu durum Title VI (1964 Medeni Haklar Yasası’nın 6. Başlığı) ihlali olarak değerlendirilebilir. Benzer şekilde cinsiyet stereotipleri barındıran bir kariyer yönlendirme algoritması Title IX ihlaline yol açabilir.
Bu tür riskler karşısında, ABD’de şimdiden sivil toplum kuruluşları ve öğrenciler ses yükseltmeye başlamış, nitekim Electronic Privacy Information Center (EPIC) adlı dijital haklar örgütü, popüler bazı sınav gözetim yazılımlarının öğrenciler aleyhine önyargılı ve hatalı sonuçlar ürettiği gerekçesiyle 2020’de şikâyette bulunmuştur. Avrupa Birliği’nin yaklaşımı da net bir şekilde ayrımcılık karşıtıdır: Taslak AI Act’in gerekçelerinde, hatalı tasarlanan veya kötü kullanılan eğitim yapay zekâ sistemlerinin eğitim hakkını ve ayrımcılığa uğramama hakkını ihlal edebileceği özellikle vurgulanmıştır. Bu nedenle AB düzenlemesi, eğitimde kullanılan yüksek riskli YZ sistemlerinin eşitlik ilkesine uygun olmasını bir ön koşul saymakta; veri setlerinin mümkün olduğunca tarafsız ve temsil edici olmasını, sonuçların düzenli olarak önyargı testlerinden geçirilmesini şart koşmaktadır.
Sonuç olarak uzaktan eğitimde yapay zekâ uygulamalarının tasarım ve kullanım aşamasında adalet ve kapsayıcılık prensiplerine özel dikkat gösterilmelidir. Gerek geliştiriciler gerekse eğitim kurumları farklı gruplar üzerindeki etkileri izlemeli, ortaya çıkabilecek ayrımcı sonuçları proaktif şekilde düzeltmelidir. Aksi takdirde hem hukuki yaptırımlarla karşılaşma hem de toplumsal güveni zedeleme riski bulunmaktadır.
Eğitimde yapay zekâ yalnızca öğrencilerin öğrenme deneyimini değil, aynı zamanda yönetimsel karar alma süreçlerini de etkilemektedir. Karar destek sistemleri olarak YZ, öğrenci kabulünden burs tahsisine, program yerleştirmeden erken uyarı sistemlerine kadar pek çok alanda kullanılabilir. Örneğin, bazı üniversiteler başvuran öğrencileri puanlamak ya da “başarı olasılıklarını” tahmin etmek için algoritmalar kullanmayı değerlendirmektedir. Benzer şekilde, öğretmenler veya eğitim yöneticileri, öğrencilerin başarısını tahmin eden ve akademik risk altında olanları tespit eden YZ araçlarından faydalanabilir. Bu tür uygulamalar veriye dayalı kararları destekleyerek nesnellik ve hız kazandırma potansiyeli taşısa da, bu kapsamda hukuki sınırların dikkatle çizilmesi gerekir.
Öncelikle, “karar destek” ile “karar verme” arasındaki fark vurgulanmalıdır. Hukuken, önemli sonuçlar doğuran kararların tamamen otomatik sistemlere bırakılması sakıncalı görülmektedir. AB Genel Veri Koruma Tüzüğü (GDPR) Madde 22, bireylerin kendileriyle ilgili önemli kararların yalnızca otomatik yollarla alınmamasını bir hak olarak tanımlar (istisnalar hariç). KVKK’da böyle açık bir madde bulunmasa da, KVKK’nın temel ilkeleri ve Avrupa’daki gelişmeler ışığında öğrencilerin eğitim hayatlarını etkileyen kararların salt YZ’ye bırakılmaması gerektiği anlayışı kabul görmektedir. Nitekim KVKK’nın YZ rehberi de, otomatik işlemlerle kişiler üzerinde etki yaratılırken kişinin kendi görüşünü yansıtmasına imkân tanınması ve tamamen otomatik kararlara alternatif yollar sunulması gerektiğini belirtmiştir. Bu durum pratikte her YZ destekli kararın bir insan tarafından gözden geçirilmesini veya onaylanmasını sağlamak anlamına gelir. Örneğin bir yapay zekâ sistemi bir öğrencinin başarılı olup olmayacağına dair risk skoru ürettiyse, bu skor yalnızca bir tavsiye niteliğinde olmalı; öğrenciye yönelik herhangi bir yaptırım (örneğin destek programına alma veya disiplin işlemi) öncesinde bir yetkili tarafından değerlendirilmelidir.
Karar destek sistemlerinde YZ kullanımı ayrıca bir sorumluluk dağılımı meselesini de beraberinde getirir. Eğer üniversite yönetimi bir YZ aracının tavsiyesine dayanarak bir öğrenci hakkında olumsuz bir karar alırsa, daha sonra bu kararın haksız olduğu anlaşılırsa, sorumluluk kime ait olacaktır? Türk hukukunda idari kararlar hukuka aykırı bulunduğunda kurum sorumludur; “YZ söyledi” diyerek sorumluluktan kaçmak mümkün değildir. Bu nedenle, karar destek amacıyla YZ kullanan idareler, nihai sorumluluğun kendilerinde olduğunu unutmamalı ve YZ araçlarını sadece yardımcı bir unsur olarak konumlandırmalıdır. Hukuki denetim noktasında da, bir öğrencinin YZ kaynaklı bir karara itiraz etmesi durumunda kararın gerekçesinin makul ve hukuka uygun olup olmadığı yargı mercilerince incelenecektir. Dolayısıyla karar destek sistemlerinin izlenebilir kayıtlar tutması, hangi bilginin nasıl değerlendirildiğini gösterebilmesi önem kazanır.
Avrupa Birliği AI Act taslağı, eğitim-öğretimle ilgili karar destek uygulamalarını (özellikle öğrencilerin eğitim fırsatlarına erişimini belirleyen veya eğitimini önemli ölçüde etkileyen sistemleri) “yüksek riskli” olarak tanımlamaktadır. Bu kapsamda, öğrenci kabul sistemleri, notlandırma araçları ve sınav gözetim yapay zekâları için risk yönetimi, kalite ölçümü, insan denetimi ve şeffaflık kriterleri zorunlu hale gelecektir. Hatta taslak düzenleme, öğrencilerin duygusal durumunu veya dikkatini ölçmeye çalışan yapay zekâ uygulamalarını eğitim alanında yasaklamayı planlamaktadır. Bu, YZ’nin karar destek amaçlı kullanımında bile aşılmaması gereken kırmızı çizgilere işaret etmektedir: Öğrencilerin mahrem duygularını çözmeye çalışmak, pedagojik faydadan çok hak ihlali riski doğurmaktadır. Türkiye’de de ilerleyen dönemde benzer şekilde, YZ’nin eğitim kararlarında kullanımına ilişkin özel düzenlemelerin hayata geçmesi beklenebilir. Halihazırda hazırlık aşamasındaki Türkiye Yapay Zekâ Kanun Tasarısı, YZ sistemlerinin “yüksek riskli” olarak tanımlanabileceğinden bahsetmekte ve bu tür sistemlerin kayıt altına alınarak yetkili otoritelerce sürekli denetlenmesi gerektiğini öngörmektedir. Her ne kadar detaylar henüz net olmasa da, bu yaklaşım eğitim alanındaki YZ karar destek uygulamalarına da uygulanabilecektir.
Özetle, uzaktan eğitimde YZ’nin karar destek amacıyla kullanımı, insan karar vericilerin hız ve nesnellik kazanmasına yardımcı olabilir. Ancak hukuki güvenlik için, YZ destekli karar süreçlerinin şeffaf, denetime açık ve insan kontrolünde olması şarttır. Öğrencilerin geleceğini etkileyen hiçbir karar, insan unsuru tamamen devre dışı bırakılarak sadece algoritmaya bırakılmamalıdır. Aksi halde, hem bireysel mağduriyetler hem de hukuki ihlaller kaçınılmaz hale gelebilir.
Uzaktan eğitimde sınav güvenliği sağlamak için yaygınlaşan öğrenci izleme yazılımlarıdır. Bu yazılımlar öğrencilerin sınav esnasında kameralarını ve mikrofonlarını kullanarak görüntü/ses kaydı almakta; ekran hareketlerini izleyebilmekte ve yapay zekâ ile şüpheli davranış algılamaya çalışmaktadır. Hukuki açıdan burada ciddi özel hayat ve mahremiyet sorunları ortaya çıkmaktadır. Bir öğrencinin kendi evinden sınava girerken odasının ve davranışlarının sürekli gözlenmesi, eğitim amacıyla da olsa bir çeşit dijital gözetim anlamına gelir. ABD’de bu konuda emsal teşkil eden bir olay, Ohio’daki Cleveland State University öğrencisinin açtığı davadır: Öğrenci sınavdan önce odasının webcam ile taranmasının Anayasa’nın 4. Değişikliği uyarınca makul olmayan arama kapsamında özel hayat ihlali olduğunu iddia etmiş ve federal mahkeme öğrenciyi haklı bularak bu uygulamanın anayasaya aykırı olduğuna karar vermiştir. Mahkeme, öğrencinin evinin mahremiyetinin, sınav güvenliği gerekçesinden ağır bastığını vurgulamıştır. Bu karar üniversitelerin uzaktan sınav öncesi oda taraması gibi uygulamalarına önemli bir sınır getirmiştir. Türkiye’de anayasal düzeyde böyle bir dava henüz yaşanmamış olsa da, öğrencinin konut dokunulmazlığı ve özel hayatının korunması ilkeleri benzer şekilde değerlendirilebilir. Öğrencinin rızası olmadan evinin içini gösteren bir tarama yapılması, temel haklar bakımından sorunlu görülür. Kaldı ki KVKK açısından da böyle bir görüntü kaydı ancak açık rıza ile ve çok sıkı güvenlik önlemleriyle işlenebilir; aksi takdirde veri ihlali sayılacaktır.
Öğrenci izleme yazılımlarının bir diğer boyutu bu sistemlerin yüz tanıma ve davranış analizi gibi yapay zekâ tekniklerini kullanmasıdır. Örneğin bir yazılım öğrencinin göz hareketlerine, yüz mimiklerine veya klavye kullanım hızına bakarak kopya çekip çekmediğine dair bir risk puanı oluşturabilir. Bu sistemlerin hatalı alarm verme olasılığı mevcuttur ve bazı durumlarda belirli gruplara karşı önyargılı olabildiği iddia edilmiştir. Örneğin, Hollanda’da pandemi döneminde bazı üniversitelerin kullandığı çevrimiçi proctoring yazılımlarının, daha koyu tenli öğrencilerin yüzlerini tanımakta zorlandığı ve onları sık sık “ortamda değil” diye işaretlediği öne sürülmüş, bu da ırksal ayrımcılık tartışmalarına yol açmıştır. Konu Hollanda Veri Koruma Otoritesi’nin dikkatini çekmiş ve 2020’de bu tür yazılımların GDPR’a uygunluğu hakkında bir inceleme başlatılmıştır. Sonuçta Hollanda’da mahkeme, yeterli önlemlerin alındığı ve öğrencilerin rızasının bulunduğu durumlarda çevrimiçi gözetimin devam edebileceğine karar vermiş; ayrıca iddia edildiği gibi ten rengi temelinde ayrımcılık yapıldığı kanıtlanamamıştır. Yine de bu süreç, öğrenci izleme yazılımlarının şeffaflığı ve denetimi konusunda önemli dersler barındırmaktadır. Hem teknik açıdan algoritmaların daha adil hale getirilmesi, hem de öğrencilerin bu uygulamalara katılımının mümkün mertebe gönüllülük esasına dayanması gereği ortaya çıkmıştır. Uygulamada bazı üniversiteler, bu kaygılar nedeniyle uzaktan sınavlarda gözetim yazılımları kullanmak yerine açık kitap sınav veya proje ödevi gibi yöntemlere yönelmiştir.
Uzaktan eğitimde bir diğer YZ kullanımı, sınav ve ödev değerlendirmelerinde otomasyona gitmektir. Özellikle çoktan seçmeli sınavların otomatik okunması zaten yıllardır yapılmaktadır; ancak yapay zekâ ile metin analizine dayalı kısa cevap veya essay değerlendirmesi de mümkün hale gelmiştir. Örneğin bazı sistemler öğrencilerin yazdığı kompozisyonları dilbilgisi, tutarlılık, argüman kalitesi gibi ölçütlere göre puanlayabilmektedir. Hukuki olarak burada en önemli mesele değerlendirmenin adilliği ve itiraz mekanizmasıdır. Bir öğrencinin notu tamamen bir YZ sisteminin belirlemesi halinde, öğrenci bu notun haksız olduğunu düşünürse kime başvuracaktır? Bu nedenle YÖK veya Milli Eğitim gibi otoritelerin olası bir düzenlemesinde, otomatik değerlendirme sonuçlarının en az bir insan eğitmen tarafından doğrulanması veya öğrencinin yeniden değerlendirme talep etmesi halinde öğretmen tarafından incelenmesi gibi şartlar getirilebilir. Aksi halde öğrencinin eğitim hakkı ve değerlendirmede şeffaflık ilkesi zedelenebilir. Bir başka mesele de otomatik değerlendirme sistemlerinin farklı dilleri veya ifade biçimlerini doğru değerlendirememe riskidir. Özellikle Türkçe gibi dilbilgisi açısından karmaşık yapılara sahip dillerde veya yaratıcı ifadelerde, bir YZ sisteminin nüansları kaçırması olasıdır. Bu da dolaylı bir eşitsizlik yaratabilir. Bu yüzden otomatik notlandırma araçları ancak destekleyici bir araç olarak kullanılmalı, son kararı veren merci yine dersin öğreticisi olmalıdır.
Uzaktan eğitim platformlarında yaygınlaşan bir diğer YZ uygulaması, öğrenme materyallerinin ve etkinliklerinin öğrencinin bireysel performansına göre uyarlanmasıdır. Bu sistemler öğrencinin önceki konu başarılarına, öğrenme hızına ve tercihlerine bakarak bir sonraki adımda karşısına çıkarılacak içeriği kişiselleştirir. Hukuki olarak adaptif sistemler, değerlendirme veya izleme kadar tartışmalı görünmese de, yine de eşitlik ve erişim hakkı boyutları vardır. Örneğin, bir adaptif sistem, bir öğrenciye sürekli olarak “düşük seviyeli” içerik sunarsa ve onu ileri seviye materyale hiç yönlendirmezse, o öğrenciye farkında olmadan daha düşük bir öğrenim fırsatı sunulmuş olabilir. Bu durumda sistemin algoritması öğrenciyi etiketleyerek belli bir seviyede “kilitlemiş” olur ki bu pedagojik açıdan sakıncalı olabileceği gibi, eğitimde fırsat eşitliği ilkesine de aykırı düşebilir. Bu nedenle adaptif sistemlerin tasarımında çeşitlilik ve keşif unsuru korunmalıdır; öğrencinin sistemin önerilerinin dışına çıkıp kendi seçimlerini yapabilmesine imkan tanınmalıdır. Bir diğer husus, adaptif sistemlerin yoğun veri takibi yapması nedeniyle, öğrenci üzerinde bir tür sürekli gözetim hissi yaratabileceğidir. Her tıklamasının, her cevap süresinin kaydedildiğini bilen öğrencilerde stres ve kaygı artabilir. Bu da dolaylı olarak eğitim hakkını etkileyen bir faktör haline gelebilir. Bu nedenle adaptif sistemler öğrenciye dair verileri işlerken gizlilik ilkesine sıkı bağlı kalmalı, sadece gerekli verileri toplamalı ve öğrencilerin izni/onayı dahilinde çalışmalıdır.
Tüm bu uygulamalarda ortak payda, ölçülülük ve hukuka uygunluk ilkeleridir. Uzaktan eğitimde YZ’nin sunduğu olanaklar elbette değerlidir; ancak bu olanakları kullanırken öğrencilerin temel haklarının (özel hayat, eğitim hakkı, eşitlik, veri koruma vb.) ihlal edilmemesi gerekir.
Uzaktan eğitimde yapay zekâ uygulamalarının kullanımı, kamu kurumları (devlet okulları, üniversiteler) için idari sorumluluk doğurur. Bir kamu üniversitesinde, örneğin sınav gözetimi için bir YZ sistemi kullanılması kararı, o kurumun idari bir tasarrufudur ve hukuka uygun olmak zorundadır. Eğer bu YZ sistemi yüzünden öğrencilerin hakları ihlal edilirse (örn. yanlış hile tespiti ile öğrencinin haksız yere cezalandırılması gibi), öğrenci idareye karşı dava açıp kararın iptalini ve zararının tazminini talep edebilir. İdare hukuku bakımından hizmet kusuru veya idarenin sorumluluğu gündeme gelebilir. Bu nedenle eğitim kurumları YZ araçlarını kullanmadan önce hukuki risk analizleri yapmalı, mümkünse pilot uygulamalarla sistemi test etmeli ve sorunları öngörmelidir. Ayrıca idare içinde bu teknolojilerin kullanımından sorumlu birimler belirlenmeli; örneğin bir üniversitede “Dijital Eğitim ve Yapay Zekâ Komisyonu” kurularak, öğrencilerden gelecek geri bildirimler de toplanarak sürekli iyileştirme yapılmalıdır.
Hukuki asgari gerekliliklerin ötesinde, eğitimde YZ kullanımı etik bir meseledir. Akademik kurumlar, toplumun güvenini sarsmadan teknoloji kullanmak durumundadır. Bu nedenle birçok uluslararası kuruluş, eğitimde YZ için etik ilke rehberleri hazırlamıştır. UNESCO’nun 2021’de kabul ettiği Yapay Zekâ Etik Tavsiyeleri, eğitimde YZ kullanımında insan merkezli değerlerin korunmasını, mahremiyete saygıyı, paydaş katılımını ve kültürel farklılıklara duyarlılığı vurgular. OECD de benzer şekilde AI Principles içinde eğitim sektörünü adreslemiştir. Türkiye’de de Milli Eğitim Bakanlığı YEĞİTEK bünyesinde yapay zekâ çalıştaylarında, etik ilkelere özellikle dikkat çekilmektedir. Bu tip adımlar henüz yasal zorunluluklar olmasa da, özdenetim mekanizmaları oluşturarak YZ kullanımının sorumlu bir şekilde yürütülmesini sağlar.
Yapay zekâ uygulamalarının eğitimde kullanılmasının etkin denetimi, hem kurum içi hem de kurum dışı mekanizmalarla mümkündür. Kurum içinde, yukarıda bahsedilen komisyonlar veya bilişim birimleri, YZ sistemlerinin performansını, hatalarını ve verinin güvenliğini düzenli olarak takip etmelidir. Algoritma denetimi (audit) kavramı burada önem kazanır: Belirli aralıklarla YZ sisteminin çıktıları incelenerek önyargı barındırıp barındırmadığı, beklenmeyen hatalar yapıp yapmadığı ölçümlenmelidir. Gerekirse bağımsız uzmanlar veya araştırmacılar davet edilerek sistemlerin denetlenmesi sağlanabilir (örneğin bir üniversite, kullandığı YZ tabanlı değerlendirme aracını bilişim fakültesinden bir araştırma grubuna inceletip rapor alabilir). Türkiye’de tasarı aşamasındaki YZ Kanunu, yüksek riskli YZ sistemlerinin bir kayıt altına alınmasını ve “yetkili denetleyici kurumlar” tarafından sürekli izlenmesini öngörmektedir. Her ne kadar henüz bu denetleyici kurum netleşmemişse de (örneğin KVKK mi, yoksa Dijital Dönüşüm Ofisi mi görev alacak), kanun çıktığında eğitimdeki YZ sistemlerinin de bu kapsama alınması olasıdır. Avrupa Birliği AI Act kapsamında da üye ülkelerin ulusal denetim otoriteleri kurması ve yüksek riskli sistemleri tescil edip izlemesi gerekecektir.
Bunun yanında, sertifikasyon ve standartlar da bir denetim aracıdır. KVKK’nın YZ tavsiyelerinde, YZ uygulamalarında kurallar ve sertifikalandırma mekanizmalarının geliştirilmesi önerilmiştir. Bu da ileride eğitimde kullanılan yazılımların belirli sertifikalara sahip olmasının şart koşulabileceğini gösteriyor. Örneğin bir sınav gözetim yazılımı, bağımsız bir kuruluş tarafından “Öğrenci Mahremiyetine Uygunluk” sertifikası almışsa, üniversiteler bu sertifikaya bakarak seçimi yapabilir. Keza AB AI Act de yüksek riskli sistemler için CE işaretlemesine benzer bir uygunluk değerlendirmesi öngörmektedir.
Son olarak paydaş katılımı, denetimin önemli bir parçasıdır. Öğrenciler, veliler ve öğretmenler, YZ kullanımının etkilerini birebir deneyimleyen kesimler olarak geri bildirim mekanizmalarıyla sürece dahil edilmelidir. Örneğin bir üniversite yapay zekâ ile notlandırma yapıyorsa, dönem sonunda öğrencilerden memnuniyet ve adalet algısı anketleri toplayıp, olası sorunları belirleyip gidermelidir. Bu sayede hukuki bir ihtilaf doğmadan etik ve operasyonel sorunlar tespit edilip düzeltilebilir.
Avrupa Birliği, yapay zekânın çeşitli sektörlerdeki kullanımını sistematik bir biçimde ele alan AI Act isimli kapsamlı bir tüzük üzerinde çalışmaktadır. 2023 itibariyle son aşamaya gelen bu düzenleme, dünya çapında ilk kapsamlı YZ mevzuatı olma niteliği taşımaktadır. AI Act, risk temelli bir yaklaşım benimseyerek YZ sistemlerini risk seviyelerine göre sınıflandırmakta ve buna göre yükümlülükler getirmektedir. Eğitim sektörü, AI Act taslağında yüksek riskli alanlardan biri olarak tanımlanmıştır. Özellikle, eğitim veya mesleki eğitimde kullanılıp bireylerin eğitime erişimini belirleyen ya da başarılarını değerlendiren YZ sistemleri (örneğin öğrenci kabul algoritmaları, notlandırma araçları veya sınav gözetim sistemleri) yüksek risk grubuna girmektedir. Bu kategorideki YZ uygulamalarının sağlayıcıları ve kullanan kurumlar bir dizi sıkı yükümlülüğe tabi olacaktır:
Yüksek riskli YZ sistemlerinin piyasaya sürülmeden önce kapsamlı bir risk değerlendirmesi yapılmalı, eğitimde hata payının etkisi minimize edilmelidir. Örneğin bir notlandırma algoritması değişik demografik gruplar üzerinde test edilerek tutarlı çalıştığından emin olunacaktır.
Bu sistemlerin teknik belgeleri, algoritmanın nasıl çalıştığına dair bilgiler ve kullanım kılavuzları yetkili otoritelere sunulmak üzere hazır bulundurulmalıdır. Ayrıca sistem çalışırken kritik karar adımlarını log’layarak gerektiğinde denetime imkan vermelidir.
AI Act bu sistemlerin kullanıcılarına (öğrenci, öğretmen veya kurum yöneticisi olsun) sistemin bir YZ içerdiğini ve kabaca nasıl çalıştığını bildirme zorunluluğu getirmektedir. Yani öğrenciye “Bu sınavınız yapay zekâ destekli olarak değerlendirilmiştir” gibi bir bilgi verilmesi gerekebilecektir. Ayrıca yapay zekâ tarafından oluşturulan içeriklerin (örneğin otomatik geri bildirim metinleri) bu nitelikte olduğu belirtilmelidir.
Yüksek riskli uygulamalarda insan gözetimi zorunlu tutulmaktadır. Bu da eğitimde pratik olarak öğretmenlerin ve yetkililerin YZ’nin verdiği kararları gerektiğinde değiştirebilmesi, sistemi aşırı güvendiği hatalı bir sonuca karşı durdurabilmesi anlamına gelir. AI Act, “insan müdahalesi ve denetimi sağlanmadan sistemlerin kritik kararlar almaması” ilkesini getirmektedir.
Sistemlerin belirli bir doğruluk seviyesi tutturması ve istikrarlı şekilde çalışması istenecek, kullanım süresince de performansının düşmemesi için izleme yapılacaktır. Örneğin yüz tanıma bazlı bir kimlik doğrulama sistemi ise hem sahte negatif (öğrenciyi tanımama) hem sahte pozitif (başkasını öğrenci sanma) hata oranları için eşiklere uyması beklenecektir.
Eğitimdeki YZ sistemlerinin eğitildiği verilerin mümkün olduğunca temsil edici, hatasız ve tarafsız olması gerekecektir. Ayrıca bu verilerin toplanma yöntemi GDPR’a uygun olmalı, gerektiğinde de anonim hale getirilebilmelidir.
AI Act ayrıca yasaklı uygulamalar da tanımlamaktadır. Eğitim bağlamında en dikkat çekici yasak, öğrencilerin duygusal durumunu tahmin etmeye yönelik yapay zekâ kullanımının yasaklanmasıdır. Son dönemde bazı firmalar, öğrencilerin webcam görüntülerinden duygularını analiz edip derse katılımını ölçmeye çalışıyor ya da yüz ifadesine göre anlık geri bildirim veriyordu. AB, bunların öğrenci psikolojisine ve mahremiyetine aykırı olduğunu değerlendirerek eğitim ortamında duygu çıkarımının hiçbir şartta kabul edilemez olduğunu belirtmiştir. Yine manipülatif araçlar (örneğin öğrencinin kararlarını etkilemek için tasarlanmış gizli algoritmalar) da yasaklanmıştır.
AI Act’in 2024 sonu itibariyle kabul edilip 2-3 yıllık bir geçiş süreci sonunda yürürlüğe girmesi beklenmektedir. Bu düzenleme Türkiye’yi de dolaylı olarak etkileyecektir; zira bir yandan Türkiye’nin AB uyum sürecinde benzer standartları benimsemesi olasıdır, diğer yandan uluslararası eğitim teknolojisi şirketleri ürünlerini AB normlarına göre güncelleyecektir. Nitekim AB’deki bu gelişmeler, küresel ölçekte “güvenilir yapay zekâ” kavramını öne çıkarmıştır. Eğitim teknolojisi sağlayıcıları da şimdiden ürünlerini AI Act’e uygun hale getirmek için çalışmalara başladıklarını duyurmaktadır. Örneğin Hollanda merkezli bir edtech şirketi, yapay zekâ araçlarında daima pedagojiyi teknolojinin önünde tutma, şeffaflık, insan denetimi ve itiraz hakkı tanıma gibi prensipleri uygulayacağını ilan etmiştir. Bu tip iyi örnekler AB düzenlemesinin sektör davranışlarını şekillendirmeye başladığını göstermektedir.
ABD’de federal düzeyde henüz AB’deki gibi kapsamlı bir AI yasası bulunmamaktadır. Bunun yerine, mevcut kanunların YZ kullanımına uyarlanması ve bazı rehber ilkelerle idare edilmesi yaklaşımı görülür. Eğitim alanında, öğrenci gizliliği ve sivil haklar eksenindeki mevzua, YZ kullanımı için çerçeve çizmektedir. Örneğin Aile Eğitim Hakları ve Mahremiyeti Yasası (FERPA), okullardaki öğrenci kayıtlarının gizliliğini korur ve velilere bu kayıtlara erişim/imha hakkı tanır. Bir okul YZ tabanlı bir uygulama kullanarak öğrencinin verilerini üçüncü bir tarafa aktarıyorsa FERPA’ya uygun davranmak zorundadır; aksi takdirde federal fonlarını riske atar. Çocukların Çevrimiçi Gizliliğini Koruma Yasası (COPPA), 13 yaş altı çocukların verilerinin toplanmasını ebeveyn iznine bağlar. Dolayısıyla ilkokul ve ortaokullarda kullanılan çevrimiçi YZ araçları COPPA gereği mutlaka veli onayı almak durumundadır. ABD’de ayrıca Eyalet bazında pek çok öğrenci gizlilik yasası çıkmıştır. Future of Privacy Forum’un bir raporuna göre 2013’ten bu yana eyaletlerde 128’den fazla öğrenci gizlilik kanunu yürürlüğe girmiştir. Bu yasalar okulların teknoloji tedarikçileriyle yaptıkları sözleşmelerde veri kullanımı ve güvenliği şartlarını detaylandırmaktadır. Örneğin Kaliforniya’da bir yasa, eğitim teknolojisi sağlayıcılarının öğrenci verilerini reklam amaçlı kullanmasını yasaklamıştır (Student Online Personal Information Protection Act).
Ayrıca ayrımcılık karşıtı mevzuat YZ kullanımına da uygulanmaktadır. ABD Eğitim Bakanlığı’nın Sivil Haklar Ofisi, okullarda ırk, renk, ulusal köken (Title VI), cinsiyet (Title IX) veya engellilik (ADA ve Rehabilitation Act Bölüm 504) temelinde ayrımcılık olup olmadığını denetler. Bir yapay zekâ uygulaması örneğin engelli öğrencilerin erişimine uygun değilse (görme engelliler için ekran okuyucu ile uyumlu olmaması gibi), bu ADA’ya aykırılık olarak gündeme gelebilir. Bunun haricinde, ABD yönetimi rehber niteliğinde bazı ilkeler de ortaya koymuştur. 2022’de Beyaz Saray, “Yapay Zekâ Hakları Bildirgesi Taslağı” (Blueprint for an AI Bill of Rights) yayınlayarak beş temel ilke açıklamıştır: (1) Güvenli ve etkili sistemler, (2) Algoritmik ayrımcılık korumaları, (3) Veri gizliliği, (4) Bildirim ve açıklama, (5) İnsan alternatifi ve geri bildirimi. Bu prensipler, yasal olarak bağlayıcı olmasa da, kamu kurumlarına teknoloji kullanımında yol gösterici olması için hazırlandı.
Sonuç itibariyle, uzaktan eğitimde yapay zekâ kullanımı kaçınılmaz olarak büyüyecek bir alan olup düzenleyici çerçeve de buna paralel olarak gelişecektir. Türkiye, halihazırda KVKK gibi yasalarla veri koruma konusunda adımlar atmış ve ulusal YZ stratejisiyle ilkelerini ortaya koymuştur. Ancak uzaktan eğitimin kalıcı bir bileşen haline gelmesiyle, öğrenci haklarını koruyan, yenilikçi uygulamaları teşvik eden dengeli bir hukuki çerçeve oluşturmak gerekecektir. Bu kapsamda, mevzuat güncellemeleri, kurum içi yönergeler, farkındalık eğitimleri ve paydaş katılımı dört temel sacayağı olmalıdır.
Uzaktan eğitimde yapay zekâ kullanımı, eğitimde yeni bir çağı temsil ederken hukuki açıdan da çok boyutlu bir incelemeyi gerektirmektedir. Türkiye’deki mevcut durum pandemi ile hız kazanan dijitalleşme sayesinde YZ’ye temkinli bir geçişin başladığını göstermektedir. EBA platformu ve bazı üniversite girişimleri YZ’nin eğitimde verimliliği artırabileceğine dair örnekler sunmuştur. Bununla birlikte bu teknolojilerin uygulanması kişisel verilerin korunması, öğrencilerin özel hayatının ihlali, algoritmik hatalar ve önyargılar gibi riskleri beraberinde getiriyor.
Bu yazıda ele aldığımız üzere, KVKK kapsamında veri gizliliği ve güvenliği sağlamak en temel zorunluluklardan biridir. Öğrencilerin verileri ancak kanuna uygun ve gerektiği kadar toplanmalı, yapay zekâ sistemleri bu verileri işlerken ilgili kişilerin haklarına saygı göstermelidir. Algoritmik şeffaflık ve hesap verebilirlik, eğitim gibi kamusal bir alanda güvenin tesis edilmesi için şarttır; öğrenciler ve veliler, YZ’nin ne yaptığı konusunda bilgilendirilmeli ve hatalara karşı itiraz edebilmelidir. Adil olmayan veya ayrımcı sonuçlar üreten algoritmaların ise ne teknik ne de hukuki anlamda kabulü mümkün değildir – eğitimde fırsat eşitliği ilkesini zedeleyen bir yapay zekâ kullanımı, amaçlanan faydayı sağlamaktan çok zarar verecektir.
Ayrıca öğrenci izleme ve otomatik değerlendirme gibi uygulamalarda ölçülülük ilkesi gözetilmelidir. Sırf teknolojik olarak mümkün diye, öğrencilerin evlerine kadar izlenmesi veya her adımının kaydedilmesi meşru hale gelmez. Burada daima “daha az müdahaleci bir yöntem var mı?” sorusu sorulmalıdır. Örneğin uzaktan sınav güvenliği için oda taraması yerine farklı sınav tasarımları düşünülebilir. Adaptif öğrenme sistemleri gibi öğrenciyi desteklemeye yönelik YZ uygulamalarında ise, şeffaflık ve öğrenci tercihine saygı ön planda tutulmalıdır.
İdari ve etik sorumluluklar, kurumları proaktif davranmaya çağırmaktadır. Yapay zekânın eğitimde kullanımını bir kereye mahsus bir karar olarak görmek yerine, sürekli izlenmesi ve geliştirilmesi gereken bir süreç olarak ele almak gerekir. Bu kapsamda okul ve üniversite yönetimleri kendi iç kontrol mekanizmalarını kurmalı; veri koruma görevlileri, etik komiteler gibi yapılarla süreci denetlemelidir. Denetim mekanizmaları yalnızca kâğıt üzerinde kalmamalı; düzenli raporlama, şikâyetleri ele alma ve dış denetimlere açık olma şeklinde işletilmelidir. Örneğin bir üniversite her yıl “YZ Uygulamaları Etki Raporu” yayınlayarak hem iyi giden noktaları hem de sorun alanlarını kamuoyuyla paylaşabilir.
Uluslararası gelişmeler Türkiye’ye yol göstermesi açısından değerlidir. AB’nin AI Act’i muhtemelen dünyada eğitimde YZ’nin standartlarını belirleyecek ve Türkiye de bu standartlara yakın durmaya çalışacaktır. ABD’deki vaka örnekleri ise bizi potansiyel tuzaklar hakkında uyarıyor: Örneğin şeffaf olmayan algoritmalar veya aşırı izleme yargı kararlarıyla durdurulabiliyor ve kurumların itibarı zedelenebiliyor. Dolayısıyla, en baştan hukuka ve etik değerlere uygun tasarım (design for values) yaklaşımı benimsemek en kestirme yoldur.
Sonuç itibariyle uzaktan eğitimde yapay zekâ kullanımı bir denge meselesidir. Bir yanda yenilikçilik, verimlilik, kişiye özel eğitim fırsatları; diğer yanda mahremiyet, eşitlik, güven ve hesap verebilirlik. Bu dengeyi sağlamak için hem yasa koyuculara hem eğitim politikası yapıcılarına hem de uygulayıcılara görev düşüyor. Mevzuatın güncellenmesi (örneğin ileride “Eğitimde Dijital Teknolojilerin Kullanımı Hakkında Yönetmelik” gibi özel düzenlemeler yapılabilir) farkındalık ve eğitim çalışmalarının artırılması (öğretmenlere, öğrencilere veri gizliliği ve YZ okuryazarlığı eğitimi verilmesi) ve teknolojik altyapının şeffaflaştırılması (açık kaynak algoritmaların teşviki gibi) somut adımlar olacaktır.
Unutulmamalıdır ki eğitim alanında teknolojinin nihai amacı öğrenme deneyimini iyileştirmek ve fırsat eşitliğini artırmak olmalıdır. Yapay zekâ bu amaca ulaşmada güçlü bir araç olabilir; ancak doğru ilkelerle rehberlik edilmezse amacından saptırabilir. Hukuk ve etik bu rehberliği sağlayarak, yapay zekâ destekli uzaktan eğitimin güvenli, adil ve etkili bir şekilde hayata geçmesine yardımcı olacaktır. Bu dengenin sağlanabildiği bir ortamda hem öğrenciler ve veliler hem de eğitimciler, teknolojinin getirdiği yeniliklerden endişe duymaksızın faydalanabileceklerdir. Böylece uzaktan eğitim yapay zekâ ile zenginleşerek toplumun her kesimine kaliteli ve hakkaniyetli bir eğitim sunma hedefine bir adım daha yaklaşacaktır.