uzman
Active member
- Katılım
- 25 Eyl 2020
- Mesajlar
- 52,495
- Puanları
- 36
Perşembe günü Avrupa Birliği milletvekillerinden oluşan bir komite, AI’nın ilk kez düzenlenmesinin önünü açacak bir Avrupa yapay zeka yasası üzerinde geçici bir anlaşmaya vardı.
Avrupa Parlamentosu Üyesi Svenja Hahn, “Muhafazakarların daha fazla gözetleme arzusuna ve solun aşırı düzenleme fantezilerine karşı Parlamento, yapay zekayı orantılı olarak düzenleyecek, vatandaşların haklarını koruyacak, yeniliği teşvik edecek ve ekonomiyi canlandıracak sağlam bir uzlaşma buldu” dedi.
Avrupa Komisyonu, son aylarda yatırım ve tüketici kabulünde patlama görülen yeni gelişen teknolojinin tehlikelerinden vatandaşları korumak için yaklaşık iki yıl önce taslak kuralı önerdi.
Kuralların kanun haline gelmesinden önce taslağın AB ülkeleri ve AB milletvekilleri arasında üçleme olarak bilinen müzakere edilmesi gerekiyor.
Teklifler kapsamında, ChatGPT gibi üretken AI araçları yapan şirketlerin, sistemlerinde telif hakkıyla korunan materyal kullanıp kullanmadıklarını açıklamaları gerekecek.
Milletvekilleri yeniliği teşvik etmekle vatandaşların temel haklarını korumak arasında bir denge kurmaya çalıştılar.
Bu, çeşitli AI araçlarının algılanan risk seviyelerine göre sınıflandırılmasına yol açtı: minimumdan sınırlıya, yüksek ve kabul edilemez. Yüksek riskli araçlar yasaklanmayacak, ancak şirketlerin operasyonları hakkında son derece şeffaf olmalarını gerektirecek.
ABD’de Çarşamba günü Senato İstihbarat Komitesi başkanı, birkaç yapay zeka (AI) şirketinin CEO’larını güvenlik önlemlerine öncelik vermeye, önyargılarla mücadele etmeye ve yeni teknolojileri sorumlu bir şekilde benimsemeye çağırdı.
Demokratik Senatör Mark Warner, yapay zeka teknolojisinin ortaya çıkardığı potansiyel risklerle ilgili endişelerini dile getirdi. OpenAI, Scale AI, Meta Platforms, Alphabet’in Google, Apple, Stability AI ve Midjourney CEO’larına mektuplar yazan Warner, “Ancak endüstri taahhütlerinin ötesinde, bu alanda bir düzeyde düzenlemeye ihtiyaç olduğu da açık” dedi. , Antropik, Percipient.ai ve Microsoft.
© Thomson Reuters 2023
Ortaklık bağlantıları otomatik olarak oluşturulabilir – ayrıntılar için Etik Beyanımıza bakın.
Avrupa Parlamentosu Üyesi Svenja Hahn, “Muhafazakarların daha fazla gözetleme arzusuna ve solun aşırı düzenleme fantezilerine karşı Parlamento, yapay zekayı orantılı olarak düzenleyecek, vatandaşların haklarını koruyacak, yeniliği teşvik edecek ve ekonomiyi canlandıracak sağlam bir uzlaşma buldu” dedi.
Avrupa Komisyonu, son aylarda yatırım ve tüketici kabulünde patlama görülen yeni gelişen teknolojinin tehlikelerinden vatandaşları korumak için yaklaşık iki yıl önce taslak kuralı önerdi.
Kuralların kanun haline gelmesinden önce taslağın AB ülkeleri ve AB milletvekilleri arasında üçleme olarak bilinen müzakere edilmesi gerekiyor.
Teklifler kapsamında, ChatGPT gibi üretken AI araçları yapan şirketlerin, sistemlerinde telif hakkıyla korunan materyal kullanıp kullanmadıklarını açıklamaları gerekecek.
Milletvekilleri yeniliği teşvik etmekle vatandaşların temel haklarını korumak arasında bir denge kurmaya çalıştılar.
Bu, çeşitli AI araçlarının algılanan risk seviyelerine göre sınıflandırılmasına yol açtı: minimumdan sınırlıya, yüksek ve kabul edilemez. Yüksek riskli araçlar yasaklanmayacak, ancak şirketlerin operasyonları hakkında son derece şeffaf olmalarını gerektirecek.
ABD’de Çarşamba günü Senato İstihbarat Komitesi başkanı, birkaç yapay zeka (AI) şirketinin CEO’larını güvenlik önlemlerine öncelik vermeye, önyargılarla mücadele etmeye ve yeni teknolojileri sorumlu bir şekilde benimsemeye çağırdı.
Demokratik Senatör Mark Warner, yapay zeka teknolojisinin ortaya çıkardığı potansiyel risklerle ilgili endişelerini dile getirdi. OpenAI, Scale AI, Meta Platforms, Alphabet’in Google, Apple, Stability AI ve Midjourney CEO’larına mektuplar yazan Warner, “Ancak endüstri taahhütlerinin ötesinde, bu alanda bir düzeyde düzenlemeye ihtiyaç olduğu da açık” dedi. , Antropik, Percipient.ai ve Microsoft.
© Thomson Reuters 2023
Ortaklık bağlantıları otomatik olarak oluşturulabilir – ayrıntılar için Etik Beyanımıza bakın.