OpenAI, yapay zekanın 'felaket risklerini' değerlendirmek için yeni ekip kuruyor - Dünyadan Güncel Teknoloji Haberleri

OpenAI, yapay zekanın 'felaket risklerini' değerlendirmek için yeni ekip kuruyor - Dünyadan Güncel Teknoloji Haberleri
” “Fakat aynı zamanda giderek daha ciddi riskler de yaratıyorlar OpenAI, hazırlık ekibinin aynı zamanda şirketin yapay zeka modellerini değerlendirmek ve izlemek için ne yaptığını özetleyen bir “risk bilgili geliştirme politikası” geliştirip sürdüreceğini belirtiyor

Ekip ayrıca “kimyasal, biyolojik ve radyolojik tehditlerin” yanı sıra “otonom kopyalama” veya yapay zekanın kendini kopyalama eylemini azaltmak için de çalışacak ”

Aleksander Madry, şu anda kim izinli MIT’nin Konuşlandırılabilir Makine Öğrenimi Merkezi’nin direktörlüğü görevinden itibaren hazırlık ekibine liderlik edecek


OpenAI, yapay zeka ile ilişkili “yıkıcı riskleri” azaltmak için yeni bir ekip kuruyor



genel-2

Hazırlık ekibinin ele alacağı diğer bazı riskler arasında yapay zekanın insanları kandırma yeteneğinin yanı sıra siber güvenlik tehditleri de yer alıyor İçinde perşembe günü güncellemeOpenAI, hazırlık ekibinin nükleer tehditler de dahil olmak üzere yapay zekanın neden olduğu potansiyel büyük sorunlara karşı “takip edeceğini, değerlendireceğini, tahmin edeceğini ve koruyacağını” söylüyor

OpenAI güncellemede şöyle yazıyor: “Mevcut en gelişmiş modellerde mevcut olan yetenekleri aşacak ileri düzey yapay zeka modellerinin tüm insanlığa fayda sağlama potansiyeline sahip olduğuna inanıyoruz