غوغل تعزّز البحث العميق في Gemini بعناصر بصرية تفاعلية

أعلنت غوغل عن تحديث لـ Deep Research في Gemini لتحويل التقارير النصية إلى مرئية.

فريق التحرير
فريق التحرير
غوغل تعزّز البحث العميق في Gemini بعناصر بصرية تفاعلية

ملخص المقال

إنتاج AI

أعلنت غوغل عن تحديث لـ Deep Research في Gemini، مما يحول التقارير النصية المطولة إلى "تقارير مرئية" غنية بالرسوم البيانية والصور التوضيحية والمحاكيات التفاعلية، مما يسهل فهم البيانات المعقدة.

النقاط الأساسية

  • أعلنت غوغل عن تحديث لـ Deep Research في Gemini لتحويل التقارير النصية إلى مرئية.
  • تتيح الميزة الجديدة دمج رسوم بيانية وصور ومحاكيات تفاعلية في التقارير.
  • تستهدف هذه الإضافات الباحثين والطلاب وصناع القرار لفهم البيانات المعقدة.

أعلنت غوغل عن تحديث لميزة Deep Research في Gemini يتيح تحويل التقارير النصية المطوّلة إلى «تقارير مرئية» غنية تتضمن رسومًا بيانية ومخططات وصورًا توضيحية ومحاكيات تفاعلية، بدل الاكتفاء بالنصوص. الميزة متاحة حاليًا لمشتركي خطة Google AI Ultra، حيث يمكن للتقارير أن تدمج عناصر بصرية داخلية تساعد على فهم البيانات المعقدة والنتائج بسهولة أكبر.

كيف تعمل العناصر البصرية التفاعلية؟

يعتمد Gemini على ما تسميه غوغل «Generative UI»، أي واجهات تفاعلية تُولَّد لحظيًا حسب سؤال المستخدم ومحتوى التقرير. عند إنجاز تقرير بحثي، يمكن للأداة إنشاء مخططات ورسوم ومحاكيات تتيح للمستخدم تعديل المتغيرات ورؤية تأثيرها فورًا، مثل نماذج لتوزيع الميزانيات أو رسوم لبيانات علمية، ما يحوّل التقرير من نص ثابت إلى تجربة يمكن التفاعل معها واستكشافها بصريًا.

ما الفائدة العملية للمستخدم؟

توضح غوغل أن هذه الإضافات تستهدف المستخدمين الذين يتعاملون مع معلومات كثيفة، مثل الباحثين، والطلاب، وفرق التسويق، وصنّاع القرار الذين يحتاجون لمحاكاة سيناريوهات مختلفة بسرعة. بدل قراءة صفحات من النصوص، يحصل المستخدم على لوحات تشرح العلاقات بين الأرقام والأفكار، وتساعد على اتخاذ قرارات أدق، ما يجعل Deep Research أقرب إلى «مساعد تحليلي بصري» لا مجرد أداة تلخيص.