โทรศัพท์ Google Pixel นั้นมีการใช้เทคโนโลยีปัญญาประดิษฐ์และ Machine Learning เข้ามาช่วยในการพัฒนากล้องให้มีความสามารถและได้ภาพที่มีคุณภาพดีขึ้นโดยใช้เพียงเลนส์ตัวเล็กๆ เพื่อสร้างสรรค์โหมดภาพ Portrait ที่สามารถเบลอฉากหลังในขณะที่วัตถุในฉากหน้ายังคมชัด
ล่าสุด Google ได้เผยโค้ดส่วนหนึ่งที่มีชื่อว่า DeepLab-v3+ ซึ่งจะช่วยให้เกิดภาพที่มีผลลัพธ์แบบบเดียวกับโหมด Portrait (แม้ว่า Google เองจะไม่ได้ใช้เทคโนโลยีนี้อยู่ในมือถือ Pixel ก็ตาม) โดยที่ DeepLab-v3+ นั้นเป็นเครื่องมือแยกส่วนภาพ ซึ่งสร้างจากระบบ Neural Network ซึ่งสามารถวิเคราะห์ข้อมูลภาพได้ดี และจะแยกตัววัตถุออกจากภาพพื้นหลังได้
ไดอะแกรมแสดงการทำงานของเครื่องมือแยกส่วนภาพ
วิศวกรซอฟต์แวร์ของ Google อย่างคุณ Liang-Chieh Chen และคุณ Yukun Zhu ระบุว่าเทคโนโลยีแยกส่วนภาพพัฒนาอย่างรวดเร็วท่ามกลางการเติบโตของระบบ Deep-Learning ทำให้เกิดความแม่นยำในระดับที่ยากจะจินตนาการได้เมื่อ 5 ปีก่อน Google ยังหวังว่าจะแบ่งปันระบบนี้กับสาธารณะในภาคการศึกษาและภาคอุตสาหกรรมเพื่อจะผลิตซ้ำและพัฒนางานของ Google ต่อได้
อย่างน้อยที่สุด การเปิดเผยโค้ดส่วนนี้จะมีส่วนช่วยผู้พัฒนาแอพฯ ที่ต้องการเทคโนโลยีการแยกส่วนภาพแบบที่ Google ทำได้แล้ว