Google AI Technology – Google “जागृत” प्रतिक्रिया के बाद ‘बेहतर’ जेमिनी एआई छवि जनरेटर जारी करेगा
Google अपने जेमिनी एआई छवि जनरेटर के भीतर आलोचना और पूर्वाग्रह के आरोपों का जवाब दे रहा है। उत्पन्न छवियों में श्वेत लोगों को सटीक रूप से चित्रित करने में कथित विफलता के लिए प्रतिक्रिया का सामना करने के बाद, प्रौद्योगिकी कंपनी ने एक नए छवि निर्माण उपकरण की घोषणा की है, जिसका कहना है कि इसका उद्देश्य इन चिंताओं को दूर करना है। गूगल ने माफ़ी मांगी और कहा, “हम नहीं चाहते थे कि जेमिनी किसी विशेष समूह की तस्वीरें बनाने से इनकार करें। और हम नहीं चाहते थे कि इससे गलत ऐतिहासिक या कोई अन्य छवि बने। इसलिए हमने लोगों की छवि निर्माण को बंद कर दिया है और इसे वापस चालू करने से पहले इसमें महत्वपूर्ण सुधार करने के लिए काम करेंगे। इस प्रक्रिया में व्यापक परीक्षण शामिल होगा।”
![Google AI Technology - Google "जागृत" प्रतिक्रिया के बाद 'बेहतर' जेमिनी एआई छवि जनरेटर जारी करेगा](https://i0.wp.com/bestgkhub.in/wp-content/uploads/2024/02/Screenshot_2024-02-27-12-25-30-210_com.android.chrome.png?resize=1170%2C675&ssl=1)
अब, Google के एक वरिष्ठ अधिकारी ने पुष्टि की है कि कंपनी आने वाले हफ्तों में जेमिनी AI इमेज जनरेटर का एक उन्नत संस्करण लॉन्च करेगी। Google DeepMind के सीईओ डेमिस हसाबिस ने बार्सिलोना में मोबाइल वर्ल्ड कांग्रेस में एक पैनल चर्चा में इसका खुलासा किया। हसाबिस ने कहा, “हमने इसे ठीक करते समय इस सुविधा को ऑफ़लाइन कर दिया है।” उन्होंने आगे कहा, “हम उम्मीद कर रहे हैं कि अगले कुछ हफ़्तों, कुछ हफ़्तों में यह जल्द ही ऑनलाइन वापस आ जाएगा।” यह मुद्दा तब प्रकाश में आया जब उपयोगकर्ताओं ने अपने परिणाम साझा किए, जिसमें ऐतिहासिक दृश्य भी शामिल थे, जिसमें मूल रूप से विशेष रूप से श्वेत व्यक्तियों को विविध जातियों के साथ फिर से कल्पना करते हुए दिखाया गया था। इससे यह आरोप लगने लगा कि Google ने जानबूझकर मिथुन राशि के श्वेत लोगों के खिलाफ पूर्वाग्रह प्रोग्राम किया था, कुछ आलोचकों ने टूल को “जागृत” और राजनीति से प्रेरित करार दिया।
गूगल के मुताबिक, दो चीजें गलत हुईं. कंपनी ने कहा कि यह सुनिश्चित करने के लिए उसकी ट्यूनिंग की गई है कि जेमिनी लोगों की एक श्रृंखला दिखाए जो उन मामलों के लिए जिम्मेदार नहीं है जिन्हें स्पष्ट रूप से एक सीमा नहीं दिखानी चाहिए। दूसरे, मॉडल Google की अपेक्षा कहीं अधिक सतर्क हो गया और उसने कुछ संकेतों का पूरी तरह से उत्तर देने से इनकार कर दिया – कुछ बहुत ही अजीब संकेतों को संवेदनशील मानकर गलत व्याख्या की। कंपनी ने एक ब्लॉग पोस्ट में कहा, “इन दो चीजों ने मॉडल को कुछ मामलों में जरूरत से ज्यादा मुआवजा देने और दूसरों में अति-रूढ़िवादी होने के लिए प्रेरित किया, जिससे ऐसी छवियां सामने आईं जो शर्मनाक और गलत थीं।”