شعار قسم ميدان

لماذا تختلف جودة صور الهواتف برغم تشابه مواصفات العدسة؟

ميدان - جوال

 تختلف الأسباب التي تجعلنا كمُستخدمين ننتظر بشغف صدور الهواتف الذكية الجديدة؛ فالبعض ينتظر تجربة الكاميرا، والبعض الآخر ينتظر تجربة النظام وميّزاته الجديدة، لكن هُناك فئة ثابتة لا تتغيّر أبدًا، وهي الفئة التي ما إن تحصل على الجهاز حتى تبدأ بتفكيكه قطعة وراء الأُخرى، دون أن تترك وصلة، أو مسمار، أو حتى بُرغيّ ثابت في مكانه.

 

طبعًا تلك الفئة تكشف تفاصيل لا يُمكن الوصول إليها من تصريحات الشركات على غرار مُصنّعي المكوّنات الداخليّة، فنحن نعلم من خلال عمليات التفكيك تلك أن سامسونج تقوم بتزويد هواتف آيفون بذواكر التخزين الداخلية، إضافة إلى ذواكر الوصول العشوائي. كما نجد أيضًا أن شركة سوني هي المسؤولة عن تزويد مُعظم الشركات بعدسات التصوير الموجودة داخل هواتفهم الذكية [1].

 

الغريب أننا قد نلاحظ أن نفس العدسة قد تكون مُستخدمة في أكثر من جهاز، لكن جودة الصور تبدو أفضل في جهاز دون الآخر  (مواقع التواصل)
الغريب أننا قد نلاحظ أن نفس العدسة قد تكون مُستخدمة في أكثر من جهاز، لكن جودة الصور تبدو أفضل في جهاز دون الآخر  (مواقع التواصل)

الغريب أن نفس العدسة قد تكون مُستخدمة في أكثر من جهاز، لكن جودة الصور تبدو أفضل في جهاز دون الآخر. كما أن بعض الأجهزة على الورق، تبدو بمواصفات عادية جدًا من ناحية تقنيات العدسة، لكنها أيضًا تنجح في التقاط صور بجودة عالية لا تعكس أبدًا لائحة المواصفات تلك. وهُنا لا بُد من الإشارة إلى الخوارزميات التي تُميّز هاتفًا عن الآخر أيًا كان نظام تشغيله.

 

مُعالج الصور

إلى جانب وحدة المُعالجة المركزية (CPU)، تُزَوّد الهواتف الذكية بما يُعرف بمعالج الصور (Image Signal Processor، ISP)، وهو قد يُدمج أحيانًا بوحدة المعالجة الرئيسية، أو تتم إضافته إلى اللوحة الرئيسية بشكل مُنفصل.
 

الشركات الكُبرى نجحت في تمييز كاميرا هواتفها الذكية من خلال تلك الوحدات؛ فبحسب فيل شيلر (Phil Schiller) -نائب رئيس قسم التسويق في آبل-، تقوم كاميرا هواتف آيفون 7 بتطبيق أكثر من 100 مليار عملية خلال 25 ميلي ثانية فقط. أما جوجل في هواتف بيكسل، فهي تقوم بتحليل 30 إطار في الثانية الواحدة، للحصول على بيانات دقيقة تُساعد على الخروج بصورة نقيّة وخالية من شوائب الإضاءة [2].

 

undefined

 

وتحتوي العدسات على ما يُعرف بمُستشعرات "سيموس" (CMOS)، وهي مُستشعرات تقوم بالتقاط الضوء، لكنها غير قادرة على قراءة لونه، أي لا يقدر المُستشعر على تمييز الأخضر من الأحمر من الأزرق، وبالتالي يقوم فقط بالتقاط الضوء وطول موجته ليقوم مُعالج الصور "آي إس بي" (ISP) بالبقيّة. وهُنا يجب التنويه إلى أننا نتحدّث عن النقطة -بيكسل- كوحدة أساسية.

 

 آلية تحديد اللون من قبل مُعالج الصور مُثيرة وغريبة نوعًا ما، فهي تتم عبر التجربة، أي أن المُعالج يقوم بمقارنة اللون الوارد من النقطة الأولى، مع لون النقطة المُجاورة، ليقوم فيما بعد بافتراض اللون الصحيح، وطبعًا التقنيات الحالية لا تدع مجالًا للشك، أي أن كلمة افتراض غير مُلائمة، لكن الآلية كذلك بالفعل.
 

يقوم مُعالج الصور أيضًا بمهام مثل الضبط الآلي للتركيز (Auto focus)، والضبط الآلي لفتحة العدسة (Auto exposure)، إضافة إلى الضبط الآلي لموازنة الضوء الأبيض (Auto white balance). كما طوّرته بعض الشركات ليقوم بعمليات مثل تصحيح الألوان، وإزالة الظلال الخاطئة، والتعرّف على الوجه، إضافة إلى قراءة وتحليل البيانات الواردة في كل صورة، المؤلّفة أساسًا من مجموعة من النقاط المرصوصة وفق مصفوفة رقمية لتظهر بالشكل النهائي الذي تراه العين المُجرّدة.

 

أما بخصوص الفيديو، فدور مُعالج الصور أقل ويحل محلّه ما يُعرف بـ "انكودر" (Encoder)، وهو عبارة عن مُعالج أو دارة كهربائية مؤلّفة من مجموعة من الدارات الأُخرى التي تؤدي مُجتمعة وظيفة مُعيّنة، وهي تقوم هُنا بوظيفة الترميز "انكودينج" (Encoding).

 undefined

يقوم المُستشعر "سيموس" أولًا بقراءة الصور وإرسالها إلى مُعالج الصور"آي إس بي" ليُعالج بعض الأمور مثلما ذكرنا في الأعلى، لتتلقّاها دارة الترميز فيما بعد وتقوم بتكدسيها أو ترتيبها بشكل صحيح وفق شريط زمني مُعيّن. طبعًا الترميز يتم وفقًا لمعايير قياسية مثل (MPEG) أو (H.264) على سبيل المثال لا الحصر، ونحن كمُستخدمين لا نتعامل معها بشكل مُباشر، إنما نختار الدقّة وعدد الإطارات مثل (1080p) لقاء 60 إطار في الثانية الواحدة  (fps) أو لقاء 30 إطار في الثانية [3].
 

على أرض الواقع

لكي لا يبدو الكلام السابق تقني بحت، أو مُمل وجاف، بإمكاننا ربطه مع بعض التطبيقات الحيّة الموجودة في الهواتف الذكية، والبداية يجب أن تكون مع هواتف بيكسل من جوجل، لأنها قدّمت أفضل كاميرا في هاتف ذكي، وفقًا لمعيار (DxOMark) المُعتمد من قبل الكثير من الشركات على أنه الأفضل من ناحية قراءة وتجربة العدسات.
 

أهمّية كاميرا هواتف بيكسل تكمن في أنها سريعة جدًا أثناء التقاط الصور، وأثناء مُعالجتها، دون نسيان وضعية التصوير الافتراضية التي تُعرف باسم (HDR+)، وهي وضعية ركّزت عليها جوجل بشكل كبير خلال الكشف عن الهواتف الجديدة في 2016.

 

وقبل الخوص في تقنية (HDR)، وهي اختصار لـ "التصوير بالمدى الديناميكي العالي" (High Dynamic Range)، يجب فهم آلية التقاط الصورة بشكل أساسي. في الكاميرات القديمة كانت المُستشعرات تلتقط الضوء وتقوم بتخزينه على فيلم -شريط- ذو سعة تخزينية مُعيّنة، والذي نقوم بتطبيق بعض المواد الكيميائية عليه للحصول على الصورة الأصلية. نفس الأمر يحدث في الكاميرات الحديثة تقريبًا، لكن المُستشعر "سيموس" هو المسؤول عن التقاط الصورة وتخزينها على الجهاز بعد الاستعانة بـ "آي إس بي".

 

undefined

الحديث عن الكاميرات القديمة جاء أيضًا للتذكير بآلية فتح وإغلاق العدسة، إذ كان هناك غطاء يغلق العدسة بعد الضغط على زر التصوير، ثم يُفتح بعد فترة زمنية، وهذا ما يُعرف بالـ "مدة التعريض" (Exposure Time) في التصوير، أي الوقت اللازم لالتقاط الضوء للحصول على المشهد [4].

 

الآن وبالعودة إلى تقنية "إتش دي آر 9" (HDR9) فإن ما يحدث هو أن قراءة بيانات الضوء تبدأ حتى قبل أن يُفتح الغطاء بشكل كامل، ولا تنتهي إلا بعد إغلاقه بشكل كامل. النتيجة ستكون أكثر من صورة بدرجات ضوئية مُختلفة لنفس المشهد، وهنا يأتي المُعالج "آي إس بي" ويقوم بتحليل الألوان واختيار الأفضل ودمجها للخروج بأفضل صورة مُمكنة [5].

 

تُطبّق جوجل مُعادلة حسابية أُخرى بسيطة انطلاقًا من أن التشويش الحاصل ينقص مع كل صورة، وبالتالي كُلّما زادت الصور، كُلّما تحسّنت الألوان، وبعد دمجها معًا، يحصل المُستخدم على أفضل صورة مُمكنة

جوجل في "+إتش دي آر" (HDR+) غيّرت هذه المعادلة بالكامل، فالتقاط الصور لا يبدأ عند الضغط على زر التصوير، بل يبدأ قبله بلحظات، ليستمر عند الضغط وحتى أخذ الصورة كاملة، ويقوم النظام فيما بعد بتحديد الوقت الذي ضغط المُستخدم فيه على الزر لتحديد المشهد المُناسب، ثم يقوم بجمع البيانات من جميع الصور الواردة للخروج بأفضل دقّة مُمكنة، كما أن العناصر المُتحرّكة تظهر بدقّة أفضل بكثير.

 

الاختلاف أيضًا يكمن في آلية تعرّض الصورة للضوء، فتقنية "إتش دي آر" العادية قائمة على التقاط المشهد بدرجات ضوئية مُختلفة، لأن فتح المُستشعر وإغلاقه لالتقاط الضوء يؤثّر على الصورة. لكن في "+إتش دي آر" تتعمّد جوجل التقاط جميع الصور بضوء خافت، لأنه ومن الناحية الحسابية فإن التقاط صورة في منطقة مُظلّلة يعني الحصول على الألوان الصحيحة دائمًا، لكن الصورة تبدو خافتة بسبب قلّة كمية الضوء الداخلة إلى المُستشعر.

 

ولتصحيح إضاءة المشهد تُطبّق جوجل مُعادلة حسابية أُخرى بسيطة انطلاقًا من أن التشويش الحاصل ينقص مع كل صورة، وبالتالي كُلّما زادت الصور، كُلّما تحسّنت الألوان، وبعد دمجها معًا، يحصل المُستخدم على أفضل صورة مُمكنة. مثل هذه الخوارزميات تعمل بلمح البصر، ولا يشعر المُستخدم بوجودها أساسًا. كما تسمح أيضًا بتحسين جودة الصور عند التقاطها بعناصر إضاءة مُنخفضة بعد غياب الشمس أو في الأماكن المُغلقة [6].

 

تُقدّم هواتف بيكسل خاصيّة (Smart Burst)، وتقوم فيها بتحليل 30 إطار في الثانية الواحدة خلال التقاط الصورة (مواقع التواصل)
تُقدّم هواتف بيكسل خاصيّة (Smart Burst)، وتقوم فيها بتحليل 30 إطار في الثانية الواحدة خلال التقاط الصورة (مواقع التواصل)

إضافة إلى ذلك، تُقدّم هواتف بيكسل خاصيّة "سمارت برست" (Smart Burst)، وتقوم فيها بتحليل 30 إطار في الثانية الواحدة خلال التقاط الصورة. بعدها تقوم باختيار أفضل عشر صور من ناحية درجة الألوان، ومُعدّل الغباشة، وملامح الوجوه، لتقوم فيما بعد باختيار أفضل صورة والإشارة إليها داخل ألبوم الصور؛ أي أنها تقوم باختيار أفضل صورة اعتمادًا على بعض حوارزميات الذكاء الاصطناعي، وكأنّها تعمل عوضًا عن عين الإنسان الذي يختار عادة أفضل صورة بالنسبة له [2].

 

هواتف بيكسل دون مُثبّت بصري

عندما كشفت آبل عن هواتف آيفون 7، ركّزت الشركة على المُثبّت البصري (Optical Image Stabilization)، الذي يُعرف اختصارًا بـ "أو آي إس" (OIS)، وهو عبارة عن مجموعة من التقنيات التي تعمل لمنع اهتزاز الصورة ومقطع الفيديو أثناء التصوير إذا ما تعرّضت اليد للكثير من الارتجاج؛ فعند تسجيل فيديو أثناء ركوب سيّارة أو السير على الأقدام، لا بُد للجهاز من الاهتزاز قليلًا، ووظيفة المُثبّت منع هذا الاهتزاز من الظهور بشكل واضح.
 

جوجل تخلّت عن استخدام المُثبّت البصري الضوئي، وهو ما يعني أن كاميرا هواتف بيكسل على الورق أقل -من ناحية المواصفات- من كاميرا آيفون 7. لكن الواقع من جديد عكس ورقة المواصفات.
 

جوجل استخدمت في بيكسل مُثبّت إلكتروني للصورة (Electronic Image Stabilization)، ويعرف اختصارًا بـ إي آي إس (EIS). واستخدامه على الأرض الواقع مُختلف نوعًا ما عن استخدام المُثبّت البصري الذي يُعتبر الخيار الأفضل للراغبين بتحسين جودة الصور في ظروف الإضاءة المُنخفضة، بينما يُستخدم الأول –إي آي إس– للراغبين بتحسين جودة تسجيل الفيديو؛ أي "أو آي إس" (OIS) للصور، وإي آي إس للفيديو.

 

آلية عمل المُثبّت الإلكتروني من جوجل مُميّزة أيضًا، وتعكس قوّة مُعالج الصورة، ومُعالج الجهاز أيضًا؛ ما يحدث أثناء تسجيل الفيديو هو أن النظام داخل بيكسل يقوم بقراءة البيانات من مُستشعر توضّع الجهاز -جيروسكوب-، ومُستشعر السرعة، إضافة إلى مُستشعر الحركة، 200 مرة في الثاني الواحدة، ليقوم فيما بعد بتصحيح الصورة أثناء التسجيل. طبعًا مثل هذه القراءة تتم عبر تخصيص وحدة داخل الكاميرا مُتّصلة بشكل مُباشر مع تلك المُستشعرات، وبالتالي يقوم النظام بتصحيح الارتجاج بمُساعدة الخوارزميات المُطوّرة لهذا الغرض [2][7].

 

لماذا الكاميرات المزدوجة

قرّرت آبل في آيفون 7 بلس الاستعانة بكاميرتين عوضًا عن واحدة أملًا في تحسين جودة الصور وتحدّي تقنيات التصوير الاحترافي ببعض الخوارزميات وقوّة المعالجة التي توفّرها وحدة (A10 Fusion) المُستخدمة في تلك الهواتف.
 

ساهم استخدام الكاميرتين في هواتف آبل الأخيرة بتحسين جودة التكبير أولًا، فعادة ما يستخدم مُحترفي التصوير عدسات كبيرة جدًا للحصول على تقريب بجودة عالية للصور قبل التقاطها، لكن آبل تغلّبت -بعض الشيء- على ضرورة استخدام عدسة كبيرة من خلال استخدام العدستين، فالعدسة الأولى بزاوية تصوير عريضة، والثانية بزاوية مُقرّبة، وبالتالي يحصل المُستخدم على جودة أعلى عند تكبير الصور -تقريبها- قبل التقاطها، وهنا المُقارنة مع هواتف آبل السابقة فقط، أي أن الجودة تحسّنت بشكل ملحوظ عند استخدام خاصيّة التكبير في الهواتف الجديدة [8]، عمّا كانت عليه عند استخدامها في هواتف مثل آيفون 6 إس أو آيفون 6.

 

إضافة إلى ذلك، نجحت آبل في مُحاكاة خاصيّة التركيز على العناصر (Portrait)، وإضافة بُعد لها -بوكا (Bokeh9)-، فمن خلال آيفون 7 بلس يُمكن التقاط صورة لشخص ما مع إضافة طبقة من الغباشة إلى الخلفية، وبالتالي يظهر الشخص بدقّة عالية جدًا، وتبدو الصورة ثُلاثية الأبعاد نوعًا ما بسبب وجود أبعاد ساهمت العدستان بإضافتها للصورة، بعد الاستعانة ببعض الخوارزميات المُخصّصة لهذا الغرض أيضًا [9].

 undefined

أخيرًا، وبما أن الحديث عن آيفون 7 وكاميراته الجديدة، فإن مجموعة من العمليات التي يقوم بها مُعالج الصورة هي قراءة المشهد والبحث عن الأشخاص والعناصر لالتقاط الوجوه وتحديدها، وهذا يتم عبر خوارزميات التعلّم الذاتي. ليقوم المُعالج فيما بعد بضبط فتحة العدسة لاستقبال كميّة أكبر من الضوء، وضبط التركيز، ومُوازنة اللون الأبيض، ثم التقاط الألوان وتصحيحها من خلال ضبط الدرجات، لينتقل بعدها إلى تقليل نسبة الغباشة، ودمج جميع الصور في صورة واحدة بعد تحليل كُل شيء واختيار الأفضل، وهو ما أشار إليه شيلر في حديثه عندما قال إن مُعالج الكاميرا يقوم بـ 100 مليار عملية خلال 25 ميلي ثانية فقط.
 

مثل تلك التقنيات ليست محصورة بهواتف آبل أو جوجل فقط، فإلى جانب وجود عدسات سوني في الكثير من الأجهزة، توجد مُعالجات سناب دراجون (Snapdragon) من شركة كوالكوم في الكثير من الأجهزة كذلك، وبالتالي فإن المسؤولية تقع على عاتق الشركة المُطوّرة للجهاز والعاملين فيها، فالركائز الأساسية متوفرّة للجميع من ناحية قوّة المُعالجة، ومُستشعرات قراءة الضوء والألوان، لتبقى الدقة  وتقنيات التصوير الأُخرى تابعة لذوق المُستخدم كما يقول مارك ليفوي (Marc Levoy)، أحد الأسماء البارزة في عالم رسوميات الحاسوب، والمسؤول عن تقنيات التصوير الكبيرة التي نجحت جوجل في تطويرها في هواتف بيسكل [7].

المصدر : الجزيرة