ABD Başkanı yapay zeka tehlikeli mi sorusunu yanıtladı! Korkmayın Amerika var!

Ancak ABD Başkanı Joe Biden bu şirketlerden dikkatli olmalarını ve ürünlerini halka açmadan önce güvenli olduğundan emin olmalarını istiyor. AP ve Reuters’e göre başkan, aralarında Google ve Microsoft’tan akademisyenler ve yöneticilerin de bulunduğu bilim ve teknoloji danışmanlarıyla yapay zekanın “risklerini ve fırsatlarını” tartışmak için bir araya geldi.

Toplantı muhtemelen İtalya’da olduğu gibi ChatGPT’nin yasaklanmasıyla sonuçlanmayacak olsa da, Başkan yapay zekanın tamamen güvenli olduğuna ikna olmuş görünmüyor. AI’nın tehlikeli olup olmadığı sorulduğunda, “Görülmesi gerekiyor. Olabilir” yanıtını verdi ve gruba şunları söyledi: “Bana göre teknoloji şirketlerinin, ürünlerini halka açmadan önce güvenli olduğundan emin olma sorumluluğu var… Yapay zeka, hastalık ve iklim değişikliği gibi bazı çok zor sorunların üstesinden gelmeye yardımcı olabilir, ancak aynı zamanda toplumumuza, ekonomimize ve ulusal güvenliğimize yönelik potansiyel riskleri de değerlendirmeliyiz.”

ABD Başkanı yapay zeka tehlikeli mi sorusunu yanıtladı! Korkmayın Amerika var!

Beyaz Saray, haber kuruluşlarına, Başkanın bu fırsatı “sorumlu yenilik ve uygun güvenceler sağlamak için hakları ve güvenliği korumanın önemini” tartışmak için kullandığını söyledi. Ayrıca, çocukların çevrimiçi mahremiyetini koruyacak yasaları geçirmesi için Kongre’ye yaptığı önceki çağrılardan bahsetti.

Toplantı sırasında politikalar kararlaştırılmış ve büyük değişiklikler planlanmış gibi görünmüyor. Ancak Stanford İnsan Merkezli Yapay Zeka Enstitüsü’nden Russell Wald, AP’ye başkanın “dikkati yapay zekaya çekerek konuyla ilgili ulusal bir diyalog için zemin hazırladığını” söyledi. Geçen yıl, Biden yönetimi bir Yapay Zeka Haklar Bildirgesi için Planını yayınlamıştı. Bu planda özetle, yapay zeka ve diğer otomatikleştirilmiş sistemlerin tasarımına ve konuşlandırılmasına “yapay zeka çağındaki Amerikan halkını” koruyacak şekilde rehberlik etmesi amaçlanıyordu.

İlk yorum yapan olun

Bir yanıt bırakın

E-posta hesabınız yayımlanmayacak.


*