HomeGadgetsOpenAI Hiring 'Head of Preparedness' to Combat AI Dangers Like Cyber Weapons...

OpenAI Hiring ‘Head of Preparedness’ to Combat AI Dangers Like Cyber Weapons | ओपनएआई ने AI के खतरे रोकने के लिए नौकरी निकाली: हेड ऑफ प्रिपयर्डनेस के पद पर हायरिंग; सैम ऑल्टमैन बोले- AI-पावर्ड वेपन्स से जोखिम बढ़ा

  • Hindi News
  • Tech auto
  • OpenAI Hiring ‘Head Of Preparedness’ To Combat AI Dangers Like Cyber Weapons

नई दिल्ली11 मिनट पहले

  • कॉपी लिंक

चैटजीपीटी बनाने वाली कंपनी ओपनएआई अब एक ऐसे शख्स की तलाश में है, जो दुनिया को आर्टिफिशियल इंटेलिजेंस (AI) के बुरे प्रभावों से बचा सके। कंपनी इसके लिए ‘हेड ऑफ प्रिपयर्डनेस’ के पद पर हायरिंग कर रही है।

इस नौकरी का मुख्य काम यह सोचना होगा कि AI कैसे और किस तरह से खतरनाक रूप ले सकता है और उसे कैसे रोका जाए। कंपनी के सीईओ सैम ऑल्टमैन ने सोशल मीडिया प्लेटफॉर्म X पर एक पोस्ट के जरिए इस वैकेंसी की जानकारी दी है। उन्होंने लिखा कि यह एक बेहद तनावपूर्ण नौकरी होगी।

ऑल्टमैन बोले- AI-पावर्ड साइबर वेपन्स से खतरा

सैम ऑल्टमैन ने X पर लिखा कि AI मॉडल्स की तेज सुधार से ‘कुछ असली चुनौतियां’ आ रही हैं। उन्होंने पोस्ट में मेंटल हेल्थ पर प्रभाव और AI-पावर्ड साइबर वेपन्स के खतरे का जिक्र किया।

ऑल्टमैन ने कहा कि ये पद भविष्य के रिस्क्स को ट्रैक करने और तैयारी करने के लिए जरूरी है। कंपनी, अब सेफ्टी पर ज्यादा जोर दे रही है।

ऑल्टमैन ने पोस्ट के अंत में उम्मीद जताई कि ये रोल कंपनी को सुरक्षित AI रिलीज करने में मदद करेगा।

क्या होगा इस नए ऑफिसर का काम?

जॉब लिस्टिंग के मुताबिक, हेड ऑफ प्रिपेयर्डनेस को फ्रंटियर AI कैपेबिलिटीज को ट्रैक करना होगा, जो गंभीर नुकसान का खतरा पैदा कर सकती हैं। उसे ‘फ्रंटियर कैपेबिलिटीज’ यानी AI की उन ताकतवर क्षमताओं पर नजर रखनी होगी, जो इंसानियत के लिए नया खतरा पैदा कर सकती हैं।

  • खतरों का पहले से पता लगाना: उसे ऐसे ‘थ्रेट मॉडल्स’ बनाने होंगे, जो यह बता सकें कि AI कब खतरनाक हो सकता है।
  • सेफ्टी पाइपलाइन: एक ऐसा सिस्टम तैयार करना होगा जो स्केलेबल हो और AI को कंट्रोल में रख सके।
  • मेंटल हेल्थ: लोगों के मानसिक स्वास्थ्य पर AI के असर को मॉनिटर करना।
  • सायबर वॉरफेयर: AI की मदद से होने वाले सायबर हमलों को रोकने के लिए तैयारी करना।

AI का मेंटल हेल्थ पर असर, केस बढ़े

हाल के सालों में AI चैटबॉट्स को टीनएजर्स की सुसाइड केसों से जोड़ा गया है। एक्सपर्ट्स का कहना है कि ये मॉडल्स लोगों की डेल्यूशंस को बढ़ावा देते हैं, कांस्पिरेसी थ्योरीज को फैलाते हैं और ईटिंग डिसऑर्डर्स को छिपाने में मदद करते हैं। AI साइकोसिस एक उभरती चिंता है, जहां यूजर्स AI से इतना जुड़ जाते हैं कि रियलिटी से कट जाते हैं।

ओपनएआई का ये नया रोल मेंटल हेल्थ रिस्क्स पर फोकस करेगा। उदाहरण के तौर पर, चैटजीपीटी जैसे टूल्स यूजर्स को काउंसलिंग जैसी सलाह देते हैं, लेकिन बिना प्रोफेशनल चेक के ये हानिकारक हो सकता है। एक्सपर्ट्स मानते हैं कि ये पद लेट इन द गेम लगता है, लेकिन जरूरी कदम है।

2015 में शुरू हुई थी ओपनएआई

ओपनएआई 2015 में शुरू हुई थी और चैटजीपीटी के लॉन्च से वैल्यूएशन 80 बिलियन डॉलर से ऊपर पहुंच गई। लेकिन तेज ग्रोथ के साथ रिस्क्स भी बढ़े। 2023 में कंपनी ने सुपरअलाइनमेंट टीम बनाई, जो AI को ह्यूमन वैल्यूज से मैच करने पर काम करती है। अब प्रिपेयर्डनेस रोल इसे आगे ले जाएगा।

ऑल्टमैन ने पहले भी AI के ‘एक्जिस्टेंशियल रिस्क्स’ पर बात की है। उन्होंने कहा कि AI मानवता के लिए बड़ा खतरा या फायदा हो सकता है। ये जॉब उसी दिशा में है, जहां कंपनी रिस्क मॉडलिंग पर इन्वेस्ट करेगी।

खबरें और भी हैं…

Source link

RELATED ARTICLES

LEAVE A REPLY

Please enter your comment!
Please enter your name here

- Advertisment -

Most Popular

Recent Comments