Resim: cofotoisme/Getty Images
Bir katalog projesiÜretken yapay zeka ürünlerini değerlendirmek için standart bir dizi kriter sağlamayı amaçlayan Sandbox olarak bilinen Singapur liderliğindeki bir proje de bu hafta açıklandı
İngiltere Başbakanı Rishi Sunak’a göre “bu, yapay zeka alanında dünyanın en büyük güçlerinin riskleri anlamanın aciliyeti konusunda hemfikir olduğu tarihi bir an”
Risklerin ve yeteneklerin hala yeterince anlaşılmadığını kabul eden ülkeler, işbirliği yapmayı ve mevcut ve gelecekteki yapay zeka teknolojileriyle ilişkili risklere ilişkin ortak bir “bilimsel ve gerçek anlayış” geliştirmeyi kabul etti Bunların arasında Singapur hükümeti bünyesindeki yapay zeka başkanı, dijital ve yapay zekadan sorumlu İspanyol Dışişleri Bakanı ve OpenAI’nin CTO’su da yer alıyor
Birleşik Krallık Teknoloji Bakanı Michelle Donelan, “Her zaman hiçbir ülkenin yapay zekanın yarattığı zorluklarla ve risklerle tek başına başa çıkamayacağını söyledik ve bugünkü tarihi deklarasyon, teknolojinin güvenli bir şekilde gelişmesini sağlayacak şekilde kamu güvenini inşa etmeye yönelik yeni bir küresel çabanın başlangıcını işaret ediyor” diye ekledi
“İnsan merkezli, güvenilir ve sorumlu yapay zeka”Bletchley’in açıklamasının ele aldığı yapay zeka, “yüksek performanslı genel amaçlı yapay zeka modellerini” kapsayan sistemlerdir Özellikle siber güvenlik, biyoteknoloji ve dezenformasyonla bağlantılı risklere dikkat çekiyorlar
Metinde şunları okuyabiliyoruz: “Mevcut uluslararası forumlar ve diğer ilgili girişimler aracılığıyla, güvenilir ve herkesin yararına olan, insan merkezli, güvenilir ve sorumlu yapay zekayı sağlamak için kapsayıcı bir şekilde birlikte çalışmaya karar verdik
Bildiri halihazırda aralarında Singapur, Japonya, Hindistan, Fransa, Avustralya, Almanya, Güney Kore, Birleşik Arap Emirlikleri ve Nijerya’nın da bulunduğu Asya, Avrupa ve Orta Doğu’daki birçok ülke tarafından onaylandı »
Bu yaklaşım, yerel kültürel ve yasal bağlamlara dayalı olarak risklerin sınıflandırılması ve sınıflandırılmasının oluşturulmasına yol açabilir
Küresel riskleri önlemek için işbirliği28 ülkeden oluşan grup, uygun durumlarda işbirliği yaparak ve ulusal yaklaşımların farklılık gösterebileceğini kabul ederek küresel risklere ilişkin politikalar geliştirmeyi amaçlıyor
Aralarında Fransa, Çin ve ABD’nin de bulunduğu 28 ülke, yapay zekayla bağlantılı potansiyel riskleri belirlemek ve yönetmek için işbirliği yapmayı kabul etti
Açıklamaya göre, yapay zeka modelleri ciddi ve potansiyel olarak yıkıcı zararlara neden olma kapasitesine sahip, ancak aynı zamanda önyargıları ve mahremiyetin korunmasıyla ilgili sorunlar da geliştirebiliyor Bu, türünün ilk çok taraflı anlaşmasıdır Bunu başarmak için geniş uluslararası işbirliğine ihtiyaç olduğunun altını çiziyor katalog projesi Başlıca dil modellerini değerlendirmek için kullanılan mevcut kriterleri ve yöntemleri kategorize eden Bunlar, çok çeşitli görevleri yerine getirebilen temel modellerden spesifik, dar yapay zeka modellerine kadar uzanır com
genel-15
Katalog, yaygın olarak kullanılan teknik test araçlarını derleyerek bunları test ettikleri şeye ve yöntemlerine göre organize ediyor ve üretken yapay zeka ürünlerini değerlendirmek için bir dizi temel test öneriyor Girişim, Anthropic ve Google dahil olmak üzere büyük küresel oyuncuların kaynaklarını bir araya getiriyor ve bir rehber tarafından yönlendiriliyor Amaç, ortak bir dil oluşturmak ve “üretken yapay zekanın daha geniş, güvenli ve güvenilir bir şekilde benimsenmesini” desteklemektir
Resim : ZDNet
Geçen ay Birleşmiş Milletler (BM), potansiyel riskleri azaltmak için yapay zekanın nasıl yönetilmesi gerektiğini incelemek üzere bir danışma ekibi kurdu ve “küresel düzeyde kapsayıcı bir yaklaşım” benimseme sözü verdi
Potansiyel felaket riskleriİmzacı ülkeler, örneğin kontrolün kaybedilmesi durumunda, kasıtlı veya kasıtsız olarak yapay zekanın kötüye kullanılmasından önemli risklerin doğabileceğini kabul etmektedir Takım şu anda 39 üyesi varDevlet kurumlarından, özel kuruluşlardan ve üniversitelerden temsilciler dahil
Birleşik Krallık tarafından yayınlanan Bletchley’den yapay zeka güvenliğine ilişkin açıklama ülkelerin, yapay zekanın küresel toplumun yararına “güvenli ve sorumlu bir şekilde” geliştirilmesini ve kullanılmasını sağlamanın “acil ihtiyacını” kabul ettiğini vurguluyor Bu yeni çabalar, ileri düzeyde yapay zeka yetenekleri geliştiren özel aktörlerin daha fazla şeffaflığa ihtiyaç duymasının yanı sıra, yapay zeka testi, güvenliği ve kamu sektörü ve bilimsel araştırma kapasiteleriyle ilgili ölçümlerin ve değerlendirme araçlarının geliştirilmesini de içeriyor