2025/45 İş Yerinde Yapay Zekâ Kullanımı ve İşçi Hakları
Giriş
Teknolojik gelişmeler, iş dünyasının her boyutunu olduğu gibi çalışma hayatını da köklü bir biçimde dönüştürmektedir. Özellikle yapay zekâ (YZ) tabanlı uygulamalar, işverenlerin yönetim süreçlerinde daha verimli, hızlı ve düşük maliyetli çözümler geliştirmesine olanak tanımaktadır. Ancak bu dönüşüm, işçi-işveren ilişkisinde klasik iş hukuku kurallarının sorgulanmasına ve yeni hukuki tartışmaların ortaya çıkmasına yol açmaktadır. İş Kanunu’nun temel felsefesi, işçiyi koruma prensibine dayalıdır; buna karşın yapay zekâ uygulamaları, işçinin kişisel verilerinin işlenmesi, iş güvencesi, eşitlik ilkesi ve özel hayatın gizliliği gibi alanlarda yeni riskler doğurmaktadır. Bu çerçevede 2025 yılı itibarıyla Türkiye’de iş yerinde yapay zekâ kullanımına ilişkin hukuki sınırların hem ulusal mevzuat hem de uluslararası düzenlemeler dikkate alınarak yeniden değerlendirilmesi gerekmektedir.
Yapay Zekânın İş Yerindeki Uygulama Alanları
İşverenler, yapay zekâyı en çok işe alım süreçlerinde kullanmaktadır. Adayların özgeçmişlerinin otomatik taranması, kişilik testlerine tabi tutulması, belirli kelime gruplarına göre sıralanması ve algoritmaların “en uygun aday” seçimini yapması, insan kaynakları birimlerinin karar alma süreçlerini kökten değiştirmiştir. Benzer şekilde performans izleme ve değerlendirmeleri de giderek algoritmik sistemlere devredilmektedir. Örneğin çağrı merkezlerinde; çalışanların müşteriyle iletişim hızları, ses tonu analizi veya bilgisayar başında geçirdikleri süreler algoritmalar tarafından ölçülmekte ve işverenlere raporlanmaktadır.
Bunların yanında mesai ve vardiya planlaması, izin süreçleri, eğitim ve yetenek gelişimleri, ücretlendirme ve prim sistemleri, iş sağlığı ve güvenliği, üretim bandındaki iş akışının takibi gibi alanlarda da yapay zekâ kullanılmaktadır. Daha tartışmalı olan uygulamalar ise disiplin süreçleri ve fesih kararlarıdır. Bazı işverenler, düşük performans ya da devamsızlık tespitlerinde yalnızca yapay zekâ raporlarını dayanak gösterebilmekte, bu da işçinin savunma hakkını zayıflatmakta ve iş güvencesi bakımından ciddi sorunlar yaratmaktadır.
İşçi Hakları Açısından Ortaya Çıkan Riskler
Yapay zekânın iş yerinde yaygınlaşması, işçi hakları bakımından dört temel risk doğurmaktadır: ayrımcılık ve eşitlik ilkesine aykırılık, şeffaflık sorunu, özel hayatın gizliliğinin ihlali ve iş güvencesinin zedelenmesi. Algoritmalar, eğitildikleri veri setlerinde mevcut önyargıları yeniden üretebilir. Bu durum, yaş, cinsiyet, engellilik veya etnik köken temelli dolaylı ayrımcılık yaratabilir. İşe alımda, örneğin “genç ve dinamik” adayları önceliklendiren bir algoritma, eşitlik ilkesine aykırılık oluşturacaktır.
Şeffaflık sorunu ise işçilerin, haklarında alınan kararların hangi verilere dayandığını ve algoritmanın nasıl çalıştığını bilememesinden kaynaklanır. Bu eksiklik, işçinin kendisini savunma hakkını zayıflatmaktadır. Bazı durumlarda bu riskler birlikte de ortaya çıkabilecektir. Örneğin, yapay zekâ destekli mülakat uygulamaları; adayın jest, mimik ve duruş gibi sözsüz iletişim unsurlarını eksik veya yanıltıcı şekilde analiz edebilir.
Bu durum, eşitlik ve ayrımcılık ilkeleriyle çelişebileceği gibi, şeffaflık sorununu da derinleştirir.
Kaldı ki, Avrupa Birliği’nin 2024 yılında kabul ettiği Yapay Zekâ Yasası’nda, eğitim kurumları ve iş yerlerinde yapay zekâ sistemleri aracılığı ile duygu tanıma da yasaklanmıştır.
Sürekli dijital gözetim altında kalmak ise Anayasa’nın özel hayatın gizliliğine dair hükümleriyle çelişebilir. Özellikle kameralarla izleme veya klavye hareketlerinin kaydedilmesi ölçüsüzlük tartışmalarına neden olmaktadır. Öte yandan örneğin, insan kaynakları uzmanları tarafından yürütülen geleneksel mülakatların aksine, yapay zekâ destekli sistemlerin görüşmeleri kaydetmesi, adayların görsel ve işitsel kişisel verilerini paylaşmaya mecbur kalması gibi durumlara yol açabilir. Bu durum, kişisel verilerin korunması açısından hukuki ve etik açıdan ciddi riskler doğurabilir. Bununla beraber, görüşmeler sırasında toplanan video, ses ve davranışsal verilerin yetkisiz kişilerle paylaşılması, yetersiz güvenlik önlemleri nedeniyle siber saldırılara açık hale gelmesi veya bu verilerin üçüncü taraflara aktarılması, ciddi veri güvenliği ihlallerine yol açabilir. Ayrıca, yalnızca algoritmik raporlara dayanılarak yapılan fesihler, İş Kanunu’nun öngördüğü geçerli neden kavramıyla bağdaşmamaktadır. Zira bu tür durumlarda, insan denetimi olmaksızın verilen otomatik kararlar, işçinin savunma hakkını zayıflatabilir ve sonuç olarak keyfi işten çıkarmalara yol açabilir.
Mevzuat ve Düzenlemeler
Türkiye’de 4857 sayılı İş Kanunu, işverenin yönetim hakkına sınır çizerken işçinin kişilik haklarını da koruma altına almaktadır. 6698 sayılı KVKK ise işçilerin kişisel verilerinin işlenmesini sıkı denetime tabi tutmaktadır. Özellikle biyometrik veriler (yüz tanıma, parmak izi) yüksek riskli veri kategorisinde kabul edilmekte ve ancak zorunlu hallerde işlenebilmektedir.
Uluslararası düzeyde Avrupa Birliği’nin 2024 yılında kabul ettiği Yapay Zekâ Yasası (AI Act), yüksek riskli yapay zekâ sistemlerinin şeffaflık, insan gözetimi ve denetlenebilirlik ilkelerine uymasını zorunlu kılmıştır. Türkiye’nin AB müktesebatına uyum süreci çerçevesinde, bu düzenlemelerin Türk iş hukukuna da yansıması kaçınılmazdır. Bu bağlamda, yapay zekâ temelli uygulamaların doğurabileceği hak ihlallerinin önüne geçilebilmesi için, mevzuat uyumu ve denetim mekanizmalarının etkin şekilde işletilmesi gerekmektedir.
Yargı ve Kurul Kararları
Yargıtay 9. Hukuk Dairesi’nin 2024 tarihli bir kararında, yalnızca yapay zekâ yazılımına dayanılarak yapılan fesih işleminin geçersiz olduğuna hükmedilmiştir. Karara göre işveren, işçinin performansına ilişkin objektif kriterler sunmakla yükümlüdür. Benzer biçimde KVKK Kurulu’nun 2024/102 sayılı kararında, iş yerine giriş-çıkışlarda yüz tanıma sistemlerinin zorunlu tutulması ölçülülük ilkesine aykırı bulunmuş ve işverene idari para cezası uygulanmıştır. Bu kararlar, yapay zekâ kullanımında hukuki sınırların netleşmeye başladığını göstermektedir.
İşverenler ve Çalışanlar İçin Öneriler
İşverenlerin yapay zekâ sistemlerini kullanırken şeffaflık ve ölçülülük ilkelerine dikkat etmeleri zorunludur. Algoritmik karar süreçleri belgelenmeli, çalışanlara aydınlatma yükümlülüğü yerine getirilmeli ve yalnızca gerekli veriler işlenmelidir. Toplanan veriler başka amaçlarla (örneğin pazarlama, gözetim, sendikal faaliyet takibi vb.) kesinlikle kullanılmamalıdır. Disiplin veya fesih kararlarında, algoritmik raporlar destekleyici unsur olabilir; ancak tek başına gerekçe oluşturamaz.
İşyeri uygulamalarında kullanılan yapay zekâ sistemlerinin, işçi haklarına uygun şekilde; eşitlik, ayrımcılık yasağı, veri güvenliği ve şeffaflık gibi temel ilkelere göre işletilmesi sağlanmalıdır.
Bu amaçla, söz konusu sistemler bağımsız, tarafsız ve uzman denetim şirketleri tarafından düzenli olarak denetlenmelidir.
Çalışanlar ise haklarındaki algoritmik kararlara karşı şeffaflık ve yeniden değerlendirme talep etme, KVKK çerçevesinde verilerinin hangi amaçla işlendiğini öğrenme ve gerekli durumlarda itiraz etme hakkına sahiptir. İş sözleşmelerinde yer alan yapay zekâ denetim hükümleri dikkatle incelenmeli ve işçinin rızası dışında veri işlenmesine izin verilmemelidir.
Sonuç
2025 yılı itibarıyla yapay zekâ, iş yaşamında yalnızca teknolojik bir yenilik değil, aynı zamanda hukuki bir tartışma alanı haline gelmiştir. İşverenlerin verimlilik kaygısıyla başvurduğu bu sistemler, işçilerin kişisel haklarını tehdit etme potansiyeli taşımaktadır. Bu bağlamda, iş hukuku, yapay zekânın sunduğu fırsatlarla doğurduğu riskler arasında hassas bir denge kurmak zorundadır.
Bu denge ihtiyacı, sinema tarihinde teknolojinin insan üzerindeki etkilerini sembolik biçimde irdeleyen eserlerde de kendini göstermektedir. Nitekim Stanley Kubrick’in 2001: A Space Odyssey filminde HAL 9000’in astronotlara hava kilidini açmayı reddetmesi, yapay zekânın insan emeği üzerindeki tek taraflı otoritesine dair güçlü bir alegori sunmaktadır. Söz konusu sahne, işverenin yönetim hakkı ile işçinin mesleki bağımsızlığı ve görevlerini güvenli biçimde yerine getirme hakkı arasındaki dengenin, yapay zekâ destekli sistemler karşısında nasıl bozulabileceğini çarpıcı biçimde ortaya koymaktadır.
Bu alanda giderek daha fazla film, dizi ve kitaplarda örneklere rastlıyoruz. Kubrick’in eseri bunu onlarca yıl önce gören bir şah eser. Filmlerin gerçek olduğunu hayatımızda görüyoruz.
Dolayısıyla, iş hukukunda işçinin karar alma süreçlerine katılma ve güvenli bir çalışma ortamına sahip olma hakkı gibi temel ilkelerin, teknolojik araçların sınırsız biçimde kullanılmasından olumsuz etkilenmemesi büyük önem taşımaktadır. Bu çerçevede, yapay zekâ temelli karar mekanizmalarının mutlaka insan denetimine tabi tutulması hem iş güvencesinin hem de işçinin güvenliğinin korunması bakımından kritik bir gerekliliktir. Aksi halde, filmdeki HAL 9000 örneğinde olduğu gibi, denetimsiz yapay zekâ sistemleri çalışanların haklarını gölgede bırakan ve onların varlığını dahi tehdit eden bir otoriteye dönüşebilecektir.
Sonuç olarak, önümüzdeki yıllarda Türk mevzuatının, Avrupa Birliği’nin AI Act düzenlemelerine paralel biçimde yapay zekâya özgü yasal düzenlemeler getirmesi kaçınılmaz görünmektedir. Aksi halde, iş yerlerinde ortaya çıkabilecek algoritmik ayrımcılık, ölçüsüz gözetim ve şeffaf olmayan karar alma süreçleri, iş güvencesi davalarının ve KVKK şikâyetlerinin artmasına neden olabilecektir.
Bu ve benzeri konularda detaylı bilgiler için web sayfamızı ziyaret edebilirsiniz.
Yapay zekâ hukuku ilginizi çekiyor ve bu alanda deneyimlerinizi ve yazılarınızı paylaşmak isterseniz, bizimle paylaşabilirsiniz. Keyifli okumalar dileriz.
Sevgi & Saygılarımızla,
Barış Erdem İş Hukuku Ekibi & Taxia Yapay Zekâ Hukuku Ekibi
PDF İndir