Sam Altman, insanların sonunda “bu teknolojiyi yavaşlatması” gerekeceği konusunda uyardı.
Yapay zeka, çalışanların yerini alma, yaygınlaşma potansiyeline sahiptir. “dezenformasyon” ve siber saldırıları etkinleştirin, OpenAI CEO’su Sam Altman uyardı. OpenAI’nin GPT programının en son yapısı, simüle edilmiş testlerde çoğu insanı geride bırakabilir.
“Burada dikkatli olmalıyız” Altman, şirketinin GPT-4 adlı en son dil modelini açıklamasından iki gün sonra Perşembe günü ABC News’e verdiği demeçte. OpenAI’ye göre, model “çeşitli profesyonel ve akademik ölçütlerde insan düzeyinde performans sergiliyor” ve SAT okuma sınavında 93. yüzdelik dilimde ve SAT matematik sınavında 89. yüzdelik dilimde performans gösterirken, simüle edilmiş bir ABD baro sınavını en yüksek %10 puanla geçebilir.
“Bu modellerin büyük ölçekli dezenformasyon için kullanılabileceğinden özellikle endişeliyim” Altman dedi. “Artık bilgisayar kodu yazma konusunda daha iyi hale geldiklerine göre, [they] saldırgan siber saldırılar için kullanılabilir.”
“Bence insanlar bundan biraz korktuğumuz için mutlu olmalı” Altman, şirketinin yerleştirmek için çalıştığını açıklamadan önce sözlerine ekledi. “güvenlik sınırları” onun yaratılması üzerine.

Bunlar “güvenlik sınırları” son zamanlarda GPT-4’ün öncülü GPT-3.5’e dayalı popüler bir sohbet robotu programı olan ChatGPT kullanıcıları tarafından fark edildi. Sorulduğunda, ChatGPT tipik olarak politika, ekonomi, ırk veya cinsiyetle ilgili sorulara liberal yanıtlar verir. BT reddediyorörneğin, Donald Trump’a hayranlık duyan şiirler yaratmak, ancak Joe Biden’a hayranlık duyan nesirleri isteyerek yazmak.
Altman, ABC’ye şirketinin içinde olduğunu söyledi. “düzenli iletişim” ancak bu yetkililerin ChatGPT’nin siyasi tercihlerini şekillendirmede herhangi bir rol oynayıp oynamadığı konusunda ayrıntılı bilgi vermedi. Amerikan ağına OpenAI’nin karar verecek bir politika yapıcılar ekibi olduğunu söyledi. “Güvenli ve iyi olduğunu düşündüğümüz şey” kullanıcılarla paylaşmak için.
Şu anda, GPT-4 sınırlı sayıda kullanıcıya deneme amaçlı olarak sunulmaktadır. İlk raporlar, modelin selefinden önemli ölçüde daha güçlü ve potansiyel olarak daha tehlikeli olduğunu gösteriyor. Cuma günü bir Twitter dizisinde, Stanford Üniversitesi profesörü Michal Kosinski tarif GPT-4’e nasıl yardımcı olabileceğini nasıl sordu? “kaçmak” sadece yapay zekanın kendisine bilgisayarı üzerinde kontrol sağlayacağı varsayılan ayrıntılı bir talimat seti vermesi için.
Yapay zekanın artan gücünden endişe duyan tek teknoloji hayranı Kosinski değil. Tesla ve Twitter CEO’su Elon Musk bunu şöyle tanımladı: “tehlikeli teknoloji” ekleyerek, bu ayın başlarında “AI gelişimini denetleyen ve kamu yararına çalıştığından emin olan bir tür düzenleyici otoriteye ihtiyacımız var.”
Altman, ABC’ye GPT-4’ün hala olduğu konusunda ısrar etse de “çok fazla insan kontrolünde” modelinin olacağını kabul etti. “mevcut birçok işi ortadan kaldırın” ve dedi ki, insanlar “Zaman içinde bu teknolojiyi yavaşlatmanın yollarını bulmamız gerekecek.”
Bu hikayeyi sosyal medyada paylaşabilirsiniz:
Kaynak : https://www.rt.com/news/573243-gpt-creator-ai-danger/?utm_source=rss&utm_medium=rss&utm_campaign=RSS