OpenAI, yapay zekanın 'felaket risklerini' değerlendirmek için yeni ekip kuruyor - Dünyadan Güncel Teknoloji Haberleri

OpenAI, yapay zekanın 'felaket risklerini' değerlendirmek için yeni ekip kuruyor - Dünyadan Güncel Teknoloji Haberleri

Ekip ayrıca “kimyasal, biyolojik ve radyolojik tehditlerin” yanı sıra “otonom kopyalama” veya yapay zekanın kendini kopyalama eylemini azaltmak için de çalışacak



genel-2

” “Fakat aynı zamanda giderek daha ciddi riskler de yaratıyorlar ”

Aleksander Madry, şu anda kim izinli MIT’nin Konuşlandırılabilir Makine Öğrenimi Merkezi’nin direktörlüğü görevinden itibaren hazırlık ekibine liderlik edecek

OpenAI güncellemede şöyle yazıyor: “Mevcut en gelişmiş modellerde mevcut olan yetenekleri aşacak ileri düzey yapay zeka modellerinin tüm insanlığa fayda sağlama potansiyeline sahip olduğuna inanıyoruz OpenAI, hazırlık ekibinin aynı zamanda şirketin yapay zeka modellerini değerlendirmek ve izlemek için ne yaptığını özetleyen bir “risk bilgili geliştirme politikası” geliştirip sürdüreceğini belirtiyor


OpenAI, yapay zeka ile ilişkili “yıkıcı riskleri” azaltmak için yeni bir ekip kuruyor Hazırlık ekibinin ele alacağı diğer bazı riskler arasında yapay zekanın insanları kandırma yeteneğinin yanı sıra siber güvenlik tehditleri de yer alıyor İçinde perşembe günü güncellemeOpenAI, hazırlık ekibinin nükleer tehditler de dahil olmak üzere yapay zekanın neden olduğu potansiyel büyük sorunlara karşı “takip edeceğini, değerlendireceğini, tahmin edeceğini ve koruyacağını” söylüyor