top of page
Search

2024 Senesi Yapay Zeka Trendleri; Çalışan Uygulamaları, Risk Sigortalamaları ve Etik

Writer's picture: Burcu TümerBurcu Tümer

2024 senesinde ne gibi yapay zeka (“AI”) trendleri olacak acaba diye araştırırken karşıma çok kıymetli içerikler çıktı. Dikkatimi çeken bazı uygulamaları paylaşmak istiyorum.


Generative AI tabiki önde gelen başlıklardan. Gündelik hayatımızda da sohbet konusu olmaya başlayan Generative AI uygulamalarını kısaca « içerik üretilmesine ilişkin veri kullanımı » olarak özetleyebiliriz. 2023 senesinde Generative AI ile üretilen içeriklere karşı farklı paydaşların itirazlarını da sıkça duymuştuk; Amerika’da senaristlerin protestosu, en son Aralık ayı sonunda New York Times tarafından OpenAI ve Microsoft’a açılan telif haklarına ilişkin davada[1] da verilerin izinsiz kullanımı sonucu yeni içerikler üretilmesi ve bundan fayda sağlanması konusunda rahatsızlıklar olduğunu gözlemlemiştik.


Yapay zeka ile üretilen içeriklerin telif hakkı konusunu bir süredir konuşuyorduk, bunun ne şekilde çözülebileceğine ilişkin farklı çözüm önerilerini de hukuki açıdan değerlendirmiştik; AB Yapay Zeka Yasası kapsamında söz konusu içeriklerin filigran ile işaretlenmesi çözüm önerilerinden bir tanesiydi. Burada tabi verinin ne şekilde kullanılabileceği konusunun da değerlendirilmesi gerektiğinden çözüm önerisi olarak veri lisanslamasını gündeme getirebiliriz diye düşünüyorum.


Generative AI haricinde, farklı AI uygulamalarının da artacağı ifade ediliyor. Bunlardan dikkatimi çekenlerden bir tanesi BYOAI (Bring Your Own Artificial Intelligence). BYOAI çalışanların kendi AI ürün ve uygulamalarını işyerinde kullanabilmesi anlamına geliyor. Her ne kadar inovasyonu teşvik edeceği ve zaman tasarrufu sağlayacağı belirtilse de, mevzuat uyumu en büyük endişelerden biri olarak karşımıza çıkıyor. Hem yürürlükteki mevzuat hem de şirketlerin iç politika ve prosedürlerine aykırılık teşkil edebilecek olan bu uygulamalar aynı zamanda veri güvenliği ve ihlali risklerini de beraberinde getiriyor.


AI uygulamalarındaki veri çıktılarının doğruluğunu, güvenilirliğini ve tarafsızlığını da tartıştığımız için buna çözüm önerisi olarak enteresan bir konu da karşıma çıktı; AI risk sigortaları. Ingilizce “AI risk hallucination insurance” olarak ifade edilen bu çözümde sigorta şirketlerinin de kendilerine bir oyun alanı yaratabileceğini söyleyebiliriz. Şu şekilde açıklanıyor; yapay zeka uygulama çıktılarının yanlış sonuçlar ortaya koyması halinde bu yanlış çıktılar “halüsinasyon” olarak ifade ediliyor. Risk temelli bir yaklaşımla söz konusu halüsinasyonlara ilişkin sigorta yapılmasını oldukça mantıklı bulduğum için bu konunun da altını çizmek istedim. Nitekim araştırmalarda bu konuya ilişkin yatırım ve girişimlerin artacağına ilişkin tahminler de araştırma raporlarına konu olmuş bile…


Son olarak ise Ethical AI kavramını ele almak istiyorum. Yapay zeka uygulamaları üzerine çalışırken, “karar mekanizmasına etik değerleri nasıl entegre edebiliriz” sorusu karşımıza sıkça çıkıyordu. Buna çözüm olarak farklı bir yapay zeka altyapısının olması oldukça ilgimi çekti. Yapay zekayı farklı bir yapay zekayla eğitme fikrini çok beğendiğimi söylemek isterim.


Yapay zekaya ilişkin hukuki altyapının doğru kurgulanması önemli olduğu kadar yapay zeka uygulamalarının yaygınlaşması neticesinde iyi uygulama örneklerinin göz önünde bulundurulması, ortaya çıkan sorunların tespit edilmesi de çok kıymetli. Bu bağlamda, Kasım ayında İngiltere ev sahipliğinde birincisi düzenlenen Yapay Zeka Güvenlik Zirvesi[2] gibi inisiyatifler de önem arz ediyor. Küresel ölçekte organize edilen ilk yapay zeka zirvesi olma özelliği taşıyan bu etkinliğin altı ayda bir farklı ülkelerin ev sahipliğinde düzenlenecek olmasını, farklı coğrafyalardaki uygulamaların ve sosyo-kültürel yaklaşımların ele alınması açısından çok kıymetli buluyorum. Öngörülen yatırım trendlerinin hedeflerine ulaşıp ulaşmayacağını, çalışmalar esnasında farklı yönelimlerin ortaya çıkıp çıkmayacağını hep beraber gözlemleyeceğiz.


Ocak 2024

Av. Burcu Tümer

 


1 view0 comments

Σχόλια


bottom of page