أعلنت غوغل عن تحديث لميزة Deep Research في Gemini يتيح تحويل التقارير النصية المطوّلة إلى «تقارير مرئية» غنية تتضمن رسومًا بيانية ومخططات وصورًا توضيحية ومحاكيات تفاعلية، بدل الاكتفاء بالنصوص. الميزة متاحة حاليًا لمشتركي خطة Google AI Ultra، حيث يمكن للتقارير أن تدمج عناصر بصرية داخلية تساعد على فهم البيانات المعقدة والنتائج بسهولة أكبر.
كيف تعمل العناصر البصرية التفاعلية؟
يعتمد Gemini على ما تسميه غوغل «Generative UI»، أي واجهات تفاعلية تُولَّد لحظيًا حسب سؤال المستخدم ومحتوى التقرير. عند إنجاز تقرير بحثي، يمكن للأداة إنشاء مخططات ورسوم ومحاكيات تتيح للمستخدم تعديل المتغيرات ورؤية تأثيرها فورًا، مثل نماذج لتوزيع الميزانيات أو رسوم لبيانات علمية، ما يحوّل التقرير من نص ثابت إلى تجربة يمكن التفاعل معها واستكشافها بصريًا.
ما الفائدة العملية للمستخدم؟
توضح غوغل أن هذه الإضافات تستهدف المستخدمين الذين يتعاملون مع معلومات كثيفة، مثل الباحثين، والطلاب، وفرق التسويق، وصنّاع القرار الذين يحتاجون لمحاكاة سيناريوهات مختلفة بسرعة. بدل قراءة صفحات من النصوص، يحصل المستخدم على لوحات تشرح العلاقات بين الأرقام والأفكار، وتساعد على اتخاذ قرارات أدق، ما يجعل Deep Research أقرب إلى «مساعد تحليلي بصري» لا مجرد أداة تلخيص.




