Google Boss Issues Warning Ahead of Gemini 3.0 Launch - TPO News

Google Boss Issues Warning Ahead of Gemini 3.0 Launch - TPO News

گوگل اور اس کی پیرنٹ کمپنی الفابیٹ کے سی ای او نے مصنوعی ذہانت پر بھروسہ کرنے والے صارفین کے بارے میں سخت انتباہات جاری کیے ہیں ۔ ایک نیوز چینل کے ساتھ ایک انٹرویو میں، سندر پچائی نے کہا کہ اے آئی "غلطیوں کا شکار" ہے، اور تحقیق کے لیے چیٹ بوٹس پر خصوصی انحصار کرنا درست نہیں ہے۔ لوگوں کو، "ان ٹولز کو ان چیزوں کے لیے استعمال کرنا سیکھنا چاہیے جس میں وہ اچھے ہیں، اور ان کی ہر بات پر اندھا اعتماد نہیں کرنا چاہیے۔"

Google's DeepMind AI, Gemini 3.0 کے نئے ورژن کے متعلق بھی خبردار کیا ہے کہ اسے احتیاط سے استعمال کیا جائے اور اسے بے قابو نہ ہونے دیا جائے جبکہ صارفین خاص طور پر انویسٹرز اس کے آنے کے لئے بہت پُر امید اور پرجوش ہیں

بگ ٹیک فرموں کے درمیان AI پر خرچ سالانہ 400 بلین ڈالر تک پہنچنے کا تخمینہ ہے، اور کچھ تخمینوں کے مطابق یہ دہائی کے آخر تک سالانہ 2 ٹریلین ڈالر تک بڑھ سکتا ہے۔ AI پر مرکوز فرموں میں اعلی سطح کی سرمایہ کاری کو اسٹاک مارکیٹ کے بہت سے حالیہ فوائد کا سہرا دیا گیا ہے، لیکن ٹھوس ادائیگیوں کے بغیر اس قیاس آرائی پر مبنی اخراجات نے مٹھی بھر AI-bullish tech Stocks میں قدر کو مرکوز کر دیا ہے جبکہ یہ خدشہ پیدا کیا ہے کہ اصلاح کے وسیع تر معیشت کے لیے اہم نتائج برآمد ہو سکتے ہیں۔


موجودہ AI ماڈلز کی درستگی کے بارے میں، پچائی نے کہا کہ ٹیکنالوجی جتنی تیزی سے ترقی کر رہی ہے اور نقصان دہ نتائج کو کم کرنے کے لیے لاگو کیے جانے والے حفاظتی اقدامات کےاس لحاظ سے کم ہے۔ بی بی سی کی زیرقیادت اور یورپی نشریاتی یونین کے تعاون سے اکتوبر میں کی گئی ایک تحقیق میں ChatGPT، Copilot، Gemini اور Perplexity کی درستگی کا اندازہ لگایا گیا، جس میں پتا چلا کہ یہ AI معاونین "معمولی طور پر خبروں کے مواد کو غلط انداز میں پیش کرتے ہیں"، اور یہ کہ پیدا کردہ جوابات میں سے 45 فیصد میں کم از کم ایک بڑا مسئلہ تھا۔


آکسفورڈ یونیورسٹی میں ٹیکنالوجی اینڈ ریگولیشن کی پروفیسر اور آکسفورڈ انٹرنیٹ انسٹی ٹیوٹ کی سینئر محقق سینڈرا واچٹر نے نیوز ویک کو بتایا، "میرے خیال میں GenAI پر اندھا اعتماد نہ کرنا بہت ضروری ہے کیونکہ وہ فریب کاری کا شکار ہے۔" اس نے کہا کہ اس طرح کے فریب نظر اکثر "بہت لطیف" ہوتے ہیں اور یہ کہ سب سے زیادہ نقصان دہ ایل ایل ایم ایس کی طرف سے کی جانے والی معمولی غلطیاں ہو سکتی ہیں جن کی شناخت صارفین نہیں کرسکتےتھے۔


" فرانکوئس چولیٹ، ایک AI محقق اور گوگل کے سابق سینئر اسٹاف انجینئر نے نیوز ویک کو بتایا کہ جیمنی 3.0 کے آغاز سے قبل پچائی کے ریمارکس کو "صنعت میں پختگی کی علامت" کے طور پر لیا جا سکتا ہے۔ "اگر آپ LLM کو ایک اوریکل یا سپر انٹیلی جنس کے طور پر مارکیٹ کرتے ہیں، تو آپ اپنے آپ کو ناکامی کے لئے تیار کررہے ہیں،" انہوں نے کہا۔ "اگر آپ اسے تخلیقی ٹول یا 'ریجننگ انجن' کے طور پر مارکیٹ کرتے ہیں جس کے لیے انسانی تصدیق کی ضرورت ہوتی ہے، تو آپ اس ٹول کی نوعیت کے بارے میں ایماندار  ہیں۔ 


سندر عوامی توقعات کو تکنیکی حقیقت سے ہم آہنگ کرنے کی کوشش کر رہا ہے، اور یہ بہت اچھی بات ہے۔" پچائی نے ایک نیوز ذرائع  کو بتایا کہ AI کے ممکنہ خطرات کے بارے میں صارفین کے خدشات کا جواب دینے کے لیے الفابیٹ کو "بہتر" بنایا جا رہا ہے، جبکہ AI سیکیورٹی میں سرمایہ کاری میں اضافہ اور صارفین کے لیے یہ پتہ لگانے کے لیے نئے ذرائع کو لاگو کیا جا رہا ہے کہ آیا تصاویر AI سے تیار کی گئی ہیں یا نہیں۔


 تاہم، Chollet نے نیوز ویک کو بتایا کہ AI خطرات کو کم کرنے کے ارادے سے قطع نظر، LLMS کی حفاظت کرنا "کمپیوٹر سائنس کا ایک غیر حل شدہ مسئلہ" ہے۔ انہوں نے کہا کہ "زیادہ تر موجودہ حفاظتی اقدامات بنیادی طور پر فلٹر یا 'ہدایات' ہیں جو ماڈل کو بعض سوالات سے انکار کرنے کے لیے دی گئی ہیں۔

#buttons=(Accept !) #days=(7)

Our website uses cookies to enhance your experience. Check Now
Accept !