
กว่า 2 ทศวรรษที่ชีวิตของเราผูกพันกับกล่องสีเหลี่ยมของ Google Search ไม่ว่าอยากจะรู้หรือหาข้อมูลเรื่องไหน พิมพ์เข้าไปก็จะเจอคำตอบที่ต้องการ ซึ่งทาง Google เองก็พยายามพัฒนาฟีเจอร์ใหม่ๆ ภายใต้แนวคิดการจัดระเบียบข้อมูล เพื่อให้เข้าถึงได้ง่ายและมีประโยชน์
ในงาน Search On 2022 ที่ทาง Google ก็ได้ประกาศเปิดตัวความสามารถใหม่ๆที่จะได้ใช้งานบน Google Search ที่ไม่ใช่แค่พิมพ์ข้อความค้นหาอย่างเดียวอีกต่อไป แต่จะมีการผสานการป้อนข้อมูลด้วยเสริมด้วยวิธีอื่นๆเพื่อให้หาสิ่งที่ต้องการได้แม่นยำขึ้น ทั้งการผสมผสานของรูปภาพ เสียง ข้อความ และคำพูด เพื่อให้การค้นหาเป็นธรรมชาติมากที่สุด เสริมการทำงานด้วยพลังของปัญญาประดิษฐ์ หรือ AI (Artifical Intetligence) เพื่อสร้างประสบการณ์การค้นหาที่สามารถตอบโจทย์การใช้งานจริงในหลากหลายมิติ และนี่คือฟีเจอร์ใหม่ๆที่จะได้ใช้งานกัน
Visual Search ผสานคำค้นหากับรูปภาพ
ทาง Google ได้ปล่อยให้ Google Lens ตั้งแต่ปี 2017 เพื่อช่วยให้ค้นหาผ่านรูปถ่ายและการมองเห็นได้ง่ายขึ้น ซึ่งตอนนี้มีผู้ใช้งานเป็นประจำทั่วโลกเดือนละ 8,000 ล้านคำถาม ซึ่งในงาน Search On 2022 ก็มีการประกาศใช้งานฟีเจอร์ใหม่ดังนี้
ขยายการใช้งาน Multisearch
ฟีเจอร์นี้ประกาศเปิดตัวไปในงาน Google I/O 2022 เมื่อกลางปีที่ผ่านมา โดยเปิดให้ผู้ใช้สามารถใช้ Google Lens บนมือถือถ่ายภาพพร้อมกับพิมพ์คำค้นหาเพื่อให้ได้ข้อมูลที่ตรงใจมากขึ้น ซึ่งทาง Google ได้ประกาศขยายให้อีก 70 ประเทศใช้งานได้แล้วภายในอีกไม่กี่เดือนข้างหน้า หลังจากที่ก่อนหน้านี้จำกัดให้ใช้งานได้เฉพาะในสหรัฐก่อน
ต่อมาคือฟีเจอร์ “มัลติเสิร์ชใกล้ฉัน” (Multisearch Near Me) ที่เมื่อเราให้ถ่ายรูปสิ่งของ เช่น เมนูอาหารหรือต้นไม้ที่คุณไม่คุ้นเคย แล้วค้นหาร้านอาหารหรือร้านขายอุปกรณ์ทำสวนที่ขายสิ่งเหล่านั้นภายในบริเวณที่คุณอยู่ได้ ฟีเจอร์ “มัลติเสิร์ชใกล้ฉัน” จะเริ่มให้บริการเป็นภาษาอังกฤษในสหรัฐอเมริกาในฤดูใบไม้ร่วงนี้

การแปลภาษารอบตัว
หนึ่งในสิ่งที่ทรงพลังที่สุดของการทำความเข้าใจด้วยภาพคือการทำลายกำแพงภาษา ความก้าวหน้าของ AI ทำให้เราก้าวข้ามการแปลข้อความตัวอักษรไปสู่การแปลรูปภาพ ในแต่ละเดือนมีผู้ใช้ Google แปลข้อความในรูปภาพกว่า 1 พันล้านครั้งในกว่า 100 ภาษา ซึ่งทำให้พวกเขาสามารถอ่านชื่อร้าน เมนู ป้ายต่างๆ และอื่นๆ อีกมากมาย
แต่บ่อยครั้งการผสมผสานระหว่างคำและบริบทต่างๆ เช่น ภาพพื้นหลัง ก็ช่วยให้เราเข้าใจสิ่งต่างๆ ได้ดียิ่งขึ้น ด้วยเทคโนโลยีแมชชีนเลิร์นนิงที่เรียกว่า Generative Adversarial Networks (GANs) ตอนนี้เราสามารถผสานข้อความที่แปลเข้ากับภาพพื้นหลังได้แล้ว ดังน้ัน หากคุณหันกล้องไปที่แมกกาซีนที่เป็นภาษาอื่น คุณจะเห็นคำแปลวางซ้อนบนรูปภาพอย่างแนบเนียนเหมือนผ่าการทำ Photoshop มา

สำรวจสิ่งต่างๆ รอบตัวด้วยมุมมองแบบสมจริง
ภารกิจของเราในการสร้างประสบการณ์การค้นหาที่เป็นธรรมชาติและราบรื่นมากขึ้นนั้นยังรวมไปถึงการช่วยให้คุณสำรวจโลกแห่งความเป็นจริง ความก้าวหน้าในด้านคอมพิวเตอร์วิทัศน์ (Computer Vision) และโมเดลการคาดการณ์ทำให้เราพลิกโฉมแผนที่ให้พัฒนาขึ้นไปอีกขั้น โดยเราได้พัฒนาแผนที่แบบ 2 มิติให้เป็นแผนที่ที่มีมิติภาพและสมจริงมากยิ่งขึ้น คุณจะได้สัมผัสกับสถานที่นั้นๆ ในหลายแง่มุมและรู้สึกเหมือนไปอยู่ที่นั่นจริงๆ
เรากำลังสร้างความก้าวหน้าที่สำคัญอีกครั้งหนึ่งในการทำแผนที่ โดยการนำข้อมูลเชิงลึกที่มีประโยชน์ เช่น สภาพอากาศ และความหนาแน่นของผู้คนตามสถานที่ต่างๆ มานำเสนอด้วยมุมมองแบบสมจริงบน Google Maps แบบเดียวกับที่การแสดงข้อมูลการจราจรแบบเรียลไทม์ในโหมดการนำทางช่วยให้ Google Maps มีประโยชน์มากขึ้นนั่นเอง ประสบการณ์ใหม่นี้จะทำให้คุณได้สัมผัสถึงบรรยากาศของสถานที่ที่คุณสนใจก่อนที่คุณจะไปยังสถานที่จริง เพื่อให้คุณตัดสินใจได้อย่างมั่นใจว่าจะไปที่ไหนและไปเมื่อไหร่
สมมติว่าคุณอยากนัดเจอเพื่อนที่ร้านอาหารแห่งหนึ่ง คุณสามารถซูมดูร้านที่คุณสนใจและพื้นที่บริเวณรอบๆ นั้นได้ ซึ่งจะช่วยให้คุณเห็นภาพมากขึ้นว่าบรรยากาศตรงนั้นในวันและเวลาที่เลือกจะเป็นแบบไหน รวมถึงปัจจัยอื่นๆ เช่น สภาพอากาศและความพลุกพล่าน การผสานรวมภาพขั้นสูงของโลกเข้ากับโมเดลการคาดการณ์ของเราช่วยให้คุณพอจะนึกภาพได้ว่าสถานที่ที่คุณจะไปในวันรุ่งขึ้น สัปดาห์ต่อไป หรือเดือนหน้า จะเป็นแบบไหน โดยวันนี้เรากำลังจะเพิ่มภาพมุมสูงที่สมจริงของแลนด์มาร์กสำคัญทั่วโลกกว่า 250 แห่ง และเราจะเปิดตัวมุมมองแบบสมจริงใน 5 เมืองหลักในอีกไม่กี่เดือนข้างหน้า และจะเพิ่มเมืองอื่นๆ เข้ามาอีก

รายละเอียดทั้งหมดที่ประกาศภายในงาน Search On เป็นเพียงจุดเริ่มต้นในการพลิกโฉมผลิตภัณฑ์ของ Google เพื่อช่วยให้เราค้นหาข้อมูลด้วยวิธีใหม่ๆ ซึ่งทาง Google ยังคงเดินหน้าสร้างสรรค์เทคโนโลยีใหม่ๆ ที่ตอบโจทย์ความต้องการของผู้ใช้ เพื่อช่วยให้เข้าใจข้อมูลอย่างเป็นธรรมชาติมากที่สุด