US SEC, ticaret platformlarında AI kullanımını düzenlemek için kurallar geliştirir

uzman

Active member
Katılım
25 Eyl 2020
Mesajlar
52,494
Puanları
36
Ajans başkanı Pazartesi günü yaptığı konuşmada, Wall Street’in en üst düzey düzenleyicisinin, çıkar çatışması riski oluşturan ticaret platformlarında yapay zekanın kullanımına yönelik kurallar geliştirdiğini söyledi.

Başkan Gary Gensler’e göre, ABD Menkul Kıymetler ve Borsa Komisyonu’nun da tahmine dayalı analitik ve makine öğrenimi gibi teknolojilerin kullanımının ortaya çıkardığı finansal istikrar zorluklarını ele almak için “yeni düşünceye” ihtiyacı olacak.

Gensler’in yorumları, ABD hükümetinin, yetkililerin “sorumlu” inovasyon olarak adlandırdıkları şeyi teşvik ederken, yeni teknolojinin kamu güvenliğini tehdit ettiğini söyledikleri şeyleri ele alma yönündeki daha geniş çabasının bir parçası.

Gensler, hazırlanan gözlemlerin bir kopyasına göre, bir ticaret platformunun AI sistemi hem platformun hem de müşterilerinin çıkarlarını dikkate aldığında, “çıkar çatışmaları yaratabilir” dedi ve SEC personelini yeni düzenleyici teklifleri gözden geçirmekle görevlendirdiğini de sözlerine ekledi. bahsetmeniz önerilir.

Gensler, yapay zekanın mevcut risk yönetimi modellerinin hazırlıklı olmayabileceği dünya finansal sisteminin birbirine bağlılığını da artırabileceğini söyledi.

“Yapay zekanın gelecekte getirebileceği finansal istikrar sorunlarının çoğu… sistem çapında veya makroihtiyati politika müdahaleleri hakkında yeni düşünmeyi gerektirecektir.”

Gensler’in yorumları, finansta yapay zeka kullanımının neden olduğu risklerin nasıl yönetileceğine dair son birkaç ayda yaptığı açıklamaları yineledi.

SEC’in yeni düzenlemeler geliştirmeye yönelik son gündemine göre, yetkililer, yatırım danışmanları ve aracı kurumlar tarafından yapay zeka ve makine öğreniminin kullanımındaki çıkar çatışması potansiyelini ele almak için bu yıl içinde sunulabilecek olası kural tekliflerini değerlendiriyor.

© Thomson Reuters 2023

Ortaklık bağlantıları otomatik olarak oluşturulabilir – ayrıntılar için Etik Beyanımıza bakın.
 
Üst