Yapay zekâda yetki tek elde mi toplanmak isteniyor?
Yayınlanma:
Milletlerarası otoriteler, yapay zekânın taşıdığı birçok olumlu potansiyelinin yanında, tehdit yahut tehlike potansiyelinin de göz gerisi edilmemesi gerektiğini konusunda hemfikir.
Uluslararası otoriteler, yapay zekânın taşıdığı birçok olumlu potansiyelinin yanında, tehdit yahut tehlike potansiyelinin de göz gerisi edilmemesi gerektiğini konusunda hemfikir. Yapay zekânın son birkaç yılda gösterdiği fevkalâde gelişim ve kullanıldığı alanlardaki sonuçlara dikkat çeken Dr. Öğr. Üyesi Nuri Bingöl, yapay zekâ teknolojisindeki gelişimin birtakım düzenleme ve kontrollere tabi olması gerektiğini söylüyor. Fikir ayrılıklarının ‘bu kontrolün nasıl ve kimler tarafından uygulanacağı’ konusunda olduğunu belirten Bingöl, bu yetkinin tek elde toplanması olarak düşünülmemesi gerektiğine vurgu yapıyor.Üsküdar Üniversitesi Yapay Zekâ Mühendisliği Yüksek Lisans Programı Anabilim Kolu Lideri Dr. Öğr. Üyesi Nuri Bingöl, süratle gelişen yapay zekâ teknolojilerinin ulusal ve global manada nasıl denetlenmesi, ne tıp hudutların getirilmesi gerektiği ve tüm bunların önünde ne üzere mahzurlar olduğuna dair açıklamalarda bulundu. Bilgi birikimini, yapay zekânın yararını maksimize edecek formda kullanmanın tam zamanıYapay zekânın taşıdığı birçok olumlu potansiyelinin yanında, tehdit yahut tehlike potansiyelinin de göz arkası edilmemesinin değerli olduğunu belirten Dr. Öğr. Üyesi Nuri Bingöl, “İnsanlık bu hususta deneyimli ve bu tecrübeyi süratlice pratiklere çevirmeli. Daha evvelki devrimsel teknolojik gelişmelerin yol açtığı olumlu yahut olumsuz sonuçlardan çok şey öğrendik. Bu bilgi birikimini, yapay zekânın yararını maksimize edecek halde kullanmanın tam vaktidir.” dedi.
Yapay zekâ üzerindeki kontrolün nasıl uygulanacağı konusunda fikir ayrılıkları varDüşünceleri ile bugünün toplumlarına taraf veren birçok otorite ve hatta yapay zekânın gelişmesinde kıymetli rol oynayan insanların dahi, benzeri kanıları paylaştıklarını söz eden Bingöl, “Yapay zekânın son birkaç yılda gösterdiği harikulâde gelişim ve kullanıldığı alanlardaki sonuçlar gösteriyor ki, yapay zekâ teknolojisindeki gelişim, birtakım düzenleme ve kontrollere tabi olmalı. Fikir ayrılıkları bu bahiste değil, ‘bu kontrolün nasıl uygulanacağı’ üzerinedir.” halinde konuştu. Hangi basamağının denetleneceğine nazaran önlemler değişiyorTartışmaların ve fikir ayrılıklarının, kontrolün nasıl uygulanacağı noktasında ağırlaşmasının sebeplerine de değinen Bingöl, bu sebepleri şöyle açıkladı:“Yapay zekâ teknolojileri dayanılmaz bir güçtür ve bu gücün yalnızca bir kurumun elinde toplanmasının getireceği meseleler var. Bu teknolojiler tabiatı gereği iki etaplı bir eserdir. Birincisi yapay zekânın kapasitesinin geliştirilmesi, ikincisi de belli bir emel için kullanılması. Bu iki evreden hangisi kontrole tabi tutulmalı yahut sonlandırılmalı? Hangi etabı daha fazla potansiyel tehdit yahut tehlike içeriyor? Doğal olarak bu sorunun cevabına nazaran alınabilecek önlemler de değişiyor. ‘Nasıl uygulanacağı’ sorusu farklı bir mana kazanıyor.” Teknoloji üzerinde çok bir kontrol ve sonlandırma, yararlarının azalmasına yol açarYapay zekânın kontrol ve sonlandırmasının hangi seviyede olacağı konusuna da dikkat çeken Bingöl, “Unutmamak gerekir ki teknoloji üzerinde çok bir kontrol ve sonlandırma, o teknolojinin gelişmesinden doğan yararların da azalmasına yol açar. Halbuki insanlığın önünde büyük varoluşsal sorunlar var ve yapay zekâ teknolojileri bu bahislerde büyük potansiyel taşıyor.” dedi.Bingöl, yapay zekâ konusunun değerli isimlerinden Andrew Ng’nin, ‘İnsanlığın büyük bir kısmı için varoluşsal riskleri düşündüğümde: Bir sonraki salgın, iklim değişikliği ve sonucunda kitlesel nüfus azalması, öteki bir asteroit tehlikesi… Yapay zekâ, çözümlerimizin değerli bir modülü olacak. Hasebiyle, insanlığın önündeki bin yıl boyunca hayatta kalmasını ve gelişmesini istiyorsak, yapay zekânın daha süratli çalışmasını sağlayalım, daha yavaş değil.’ biçimindeki paylaşımının dikkat alımlı olduğunu da kelamlarına ekledi. Denetim ve sonlandırmalar etik boyutu da kapsamalıYapay zekânın kontrol ve sonlandırmalarının, yalnızca tehdit ve tehlike boyutu üzerinde tesirli olmaması gerektiğini belirten Bingöl, “Bunlar kadar değerli ‘etik’ boyutu da var. Çok küçük kapasiteli yapay zekâ ürünleriyle bile, birtakım ferdî ihlal ve tehditler yaratabilir. Bilhassa bir kişi, kurum yahut bir insan topluluğu maksat olarak alınabilir. Dolayısı ile kontrol ve sonlandırma muhtaçlığını yalnızca çok büyük kapasiteli yapay zekâ teknolojisi üreten yahut kullanan taraflar olarak düşünmemek gerekiyor. Kontrol ve sonlandırmalar hem büyük boyutlu hem de yerine nazaran küçük boyutlu yapay zekâ kapasitesi için geçerli olabilmeli.” biçiminde konuştu. Kişisel bilgi güvenliği ve etik konusu için atılan adımlar, kontrol ve sonlandırmalar üzerine bir temel oluşturabilir Denetim ve sonlandırmaların nasıl uygulanacağı konusunun standartlaşması ve yönetmeliklerinin oluşmasının vakit alacak üzere göründüğünü tabir eden Bingöl, “Bu alanda tartışma ve fikirler gelişmeye devam ederken, Avrupa Birliği Genel Data Muhafaza Tüzüğü veya ülkemizde uygulanan haliyle Kişisel Dataların Korunması Kanunu gibi geçmiş deneyimlerin içine, yapay zekâ ile ilgili birtakım pratik yönetmelikleri ve düzenlemeleri bugünden koymak ve bir yönetimsel çerçeve oluşturmak kıymetli. Zira şahsî bilgi güvenliği ve etik konusu için atılan adımlar, yapay zekânın kontrol ve sonlandırmaları üzerine bir fikir ve pratik temeli oluşturabilir. Bilginin hangi kaynaktan ne büyüklükte ve ne gayeyle kullanıldığı, nasıl korunduğu ve paylaşıldığı üzerine inşa edilmiş bu mevzuatlar yapay zekânın kapasite geliştirme evresi için değerli bir ögedir ve en azından bu açıdan bir denetim temeli oluşturabilir.” formunda konuştu. ‘Bilişim Hukuku’ ögelerinin dikkatini bu mevzuya çekmeliyizDiğer bir ögenin ise bilgi süreç gücü ve güç tüketiminin yönetilmesi olduğunu aktaran Bingöl, “Bu alandaki kontrol ve sonlandırmalar ‘Blok Zincir (Blockchain)’ teknolojisinin oluşturduğu kimi kahırlara tahlil olabilmiş ve teknolojinin daha olumlu tarafa yönelmesine katkı sağlamıştır. Misal mevzuatlar, dolaylı olarak yapay zekâ teknolojisinin üzerinde de tesirli olabilir.” dedi.Öncelikle yapay zekâ tarafından üretilen düzmece içeriklerin tespit edilmesi ve yaptırımların neler olması gerektiğinin kararlaştırılması gerektiğine dikkat çeken Bingöl, “Yalnızca geçersiz bilgi barındıran değil, yanlışsız bilgi barındıran lakin bunu bir kümesi manipüle etmek yahut bir kümeye çıkar devşirmek için yapay zekâ tarafından oluşturulan içeriklerin de önüne geçilmeli. Toplanan kullanıcı dataları sayesinde bireyleri hedefleyen yapay zekâ tarafından oluşturulmuş her türlü siyasi ve ticari kampanya sonlandırılmalı ki özgür irade özgür kalmaya devam etsin. Vakit kaybetmeden yapay zekâ odaklı bakış açısı ile ‘Veriye Erişim ve Bilgi Süreç Gücünün Kullanımı’ kavramlarının, mevcut yasa ve yönetmelikler ile münasebetini kurmaya başlamalıyız. Bilhassa ‘Bilişim Hukuku’ ögelerinin dikkatini bu mevzuya çekmeliyiz.” halinde konuştu. Merkezi bir temas ve kontrol oluşturmak neredeyse imkânsız İnsanların kolaylıkla ulaşabileceği ve ulaştığında hem kendi hem de diğerlerinin hayatlarına tesir edebileceği bir teknolojinin denetlenmesi gerektiğine vurgu yapan Dr. Öğr. Üyesi Nuri Bingöl, “Ancak sırf bir bilgisayar ve biraz matematik bilgisi ile oluşturulabilen yapay zekâ modellerinin tamamı üzerinde bir kontrol sistemi kurulması pek de mümkün gözükmüyor.” dedi.Yapay zekâ teknolojisinin bir kontrol ve sonlandırmaya tabi olmasının, kaçınılmaz olarak bu yetkinin tek elde toplanması olarak düşünülmemesi gerektiğini belirten Bingöl, kelamlarını şöyle tamamladı:“Hatta günümüz teknolojileri merkeziyetsiz alt yapılar üzerine odaklanıyor ve bu alanda birçok gelişme yaşanıyor. Kaldı ki yapay zekâ teknolojilerinin bir kez üretildikten sonra, rastgele bir merkeze hatta internete bağlı olmadan gömülü sistemler olarak çalışabilmesi, en azından kullanım evresi için bir özgürlük sağlıyor. Bu kabiliyete sahip yapay zekâ sistemleri için, günümüzde her alanda görüldüğünden, merkezi bir temas ve kontrol oluşturmak neredeyse imkânsız.” Kaynak: (BYZHA) Beyaz Haber Ajansı Teknoloji
Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.