أطلقت «ميتا» جيلًا محدثًا من نظاراتها الذكية (Ray-Ban وOakley Meta) مزوّدًا بميزة جديدة لتتبع الطعام تعتمد على الذكاء الاصطناعي، بحيث يمكن للنظارة تسجيل ما تأكله عبر الكاميرا والأوامر الصوتية وتحويله إلى سجل غذائي يومي شبه تلقائي. وتقول الشركة إن الهدف هو مساعدة المستخدمين على بناء عادات صحية من خلال فهم نمط تغذيتهم، لكن الخطوة تثير أيضاً أسئلة كبيرة حول الخصوصية وحدود ما يمكن أن تراقبه التكنولوجيا في تفاصيل الحياة اليومية.
كيف تراقب النظارة طعامك؟
- يمكن للمستخدم أن يطلب من مساعد «Meta AI» عبر أمر صوتي مثل: «سجّل هذه الوجبة»، أو يلتقط صورة سريعة للطبق أمامه.
- تقوم خوارزميات الرؤية الحاسوبية بتحليل شكل الطعام وكميته، واستخراج معلومات غذائية تقريبية من قواعد بيانات مدمجة، ثم إضافتها إلى سجل تغذية مرتبط بحساب المستخدم.
- مع الوقت، تستخدم ميتا هذه البيانات لتقديم «إرشادات شخصية» مثل اقتراح خيارات أقل سعرات أو أكثر توازنًا بناءً على أهداف المستخدم الصحية.
خطوة صغيرة للصحة… كبيرة على مستوى الخصوصية
من الناحية الصحية، قد تختصر هذه الميزة كثيرًا من العناء الذي يواجهه من يحاولون تسجيل وجباتهم يدويًا في التطبيقات، إذ يتحول تسجيل الطعام إلى عملية سريعة أو شبه آلية تتم بمجرد نظرة أو أمر صوتي. لكن في المقابل، يحذّر خبراء خصوصية من أن قيام نظارات متصلة بالإنترنت بتصوير الطعام والأشخاص والبيئات من حول المستخدم بشكل متكرر يضيف طبقة جديدة من البيانات الحساسة التي يمكن نظريًا استخدامها في الإعلانات أو تحليل نمط الحياة بالتفصيل.
هل هي بداية تتبع كامل لروتينك اليومي؟
تأتي ميزة تتبع التغذية ضمن توجه أوسع لتحويل النظارات الذكية إلى «صندوق أسود» يسجل كل ما تراه وتسمعه وتفعله: من خطواتك ونشاطك الرياضي إلى طعامك وتفاعلاتك الاجتماعية. وإذا أضيفت مستقبلاً بيانات من أجهزة قابلة للارتداء أخرى (مثل الأساور والساعات) فسيكون لدى الشركات صورة شبه مكتملة عن صحتك، عادات نومك، غذائك، وحتى حالتك المزاجية، ما يفتح الباب أمام خدمات صحية متقدمة، لكنه يجعل مسألة من يملك هذه البيانات وكيف تُستخدم أكثر إلحاحًا من أي وقت مضى.




