ไม่ต้อง “มองเห็น” ก็ใช้สมาร์ทโฟนได้ #Accessibility

Tae Prasongpongchai
3 min readApr 3, 2021

[บทความนี้เผยแพร่ครั้งแรกใน Facebook และ Twitter เมื่อวันที่ 10 ธันวาคม 2563 — นำมาโพสต์ใหม่บน Medium เพื่อรวบรวมบทความที่เคยเขียนไว้ในแหล่งต่างๆ ไว้ที่เดียวกันครับ]

ไหนๆ วันนี้ (10 ธ.ค. 2563) ก็มี #ม็อบ10ธันวาสิทธิคนพิการ ในฐานะ UX Designer ที่เคยทำโปรเจกต์เกี่ยวกับผู้พิการทางสายตามาบ้างตอนที่เรียนคอมกับเรียนออกแบบ เลยอยากจะมาแชร์เรื่องการออกแบบเพื่อผู้พิการ (อยากเขียนเรื่องนี้มานานมากแล้ว ไม่ได้เขียนซักที) เรื่อง...

“ผู้พิการทางสายตาใช้มือถือยังไง?”

ใช่แล้วครับ อ่านไม่ผิด ผู้พิการทางสายตาหลายคนก็ใช้มือถือสมาร์ตโฟนทัชสกรีนเหมือนเราๆ นี่แหละ หลายคนเล่น Facebook เล่น Twitter หรือแม้แต่ Instagram ฯลฯ ด้วย “ว่าแต่ พอมันเป็นทัชสกรีน ถ้ามองไม่เห็น เราจะรู้ได้ยังไงว่าต้องกดตรงไหน?”

ทุกวันนี้บนสมาร์ทโฟนทั้ง iPhone และ Android จะมีซอฟ์แวร์ที่เรียกว่า “Screen Reader” ติดตั้งมากับเครื่อง ซึ่งสิ่งนี้ก็จะทำหน้าที่ “อ่าน” อะไรก็ตามที่อยู่บนจอออกมาเป็นเสียงพูด ซึ่งซอฟต์แวร์ตัวนี้ฝั่ง iPhone จะใช้ชื่อว่า VoiceOver ส่วนฝั่ง Android จะเรียกว่า TalkBack

วิธีใช้แบบเบสิกที่สุดก็คือ เมื่อเปิด Screen Reader ขึ้นมาแล้ว ถ้าเราแตะอะไรก็ตามบนจอ มันก็จะอ่านออกเสียงสิ่งนั้นออกมา เวลาจะหาอะไรก็ลูบๆ นิ้วไปบนจอจนกว่าจะเจอ หรือถ้าเราปัดนิ้วซ้ายขวาบนจอ มันก็จะอ่าน text อันก่อนหน้า/ถัดไป พอเจอแล้ว เวลาจะกดเลือกอะไรให้แตะตรงไหนก็ได้บนจอสองครั้ง

ถ้าแอดวานซ์ขึ้นไปหน่อย ก็จะมี gesture อื่นๆ อย่างเช่น ลากสองนิ้วเพื่อ scroll หรือลากนิ้วเป็นตัว L กลับด้าน แทนปุ่ม back เป็นต้น (วิธีใช้อันนี้อ้างอิงจากของ Android) การจะเรียนรู้วิธีใช้ทั้งหมดนี้ต้องใช้เวลาฝึกครับ ทุกวันนี้ผมเองแค่พอใช้เป็น แต่ถ้าเทียบกับคนที่ใช้จริงๆ คือเต่าคลาน 5555

“แล้วพิมพ์ยังไงล่ะ?”

เรื่องการพิมพ์ ทั้งสองระบบนี้ก็ยังใช้ Keyboard แบบปกติร่วมกับ Screen Reader ได้อยู่ ซึ่งมันก็จะช่วยอ่านให้ว่าเรากดตัวอะไรอยู่ แต่ทั้งสอง platform ก็มีคีย์บอร์ดที่กดเป็นตัวเบรลล์ได้เลยเช่นกัน เพื่อให้พิมพ์ได้เร็วขึ้น ไม่ต้องมาไล่หาตัวอักษร

“ว่าแต่ ถ้าต้องอ่านออกเสียงทีละอย่าง ไม่ช้าแย่เหรอ?”

ช้าครับ ช้ามาก แต่ถ้าได้ไปเห็นผู้พิการทางสายตาใช้ screen reader จริงๆ แล้วจะทึ่งกับความเร็วของเขา เขาใช้กันคล่องมาก แล้วไม่ได้เปิดเสียงความเร็วปกติด้วย แต่เปิดเสียงกันที่ความเร็ว 3x-4x (เราฟัง 2x ในยูทูบยังฟังไม่ค่อยทันเลย)

“อยากลองเล่นเองบ้าง ต้องทำยังไง?”

มาถึงตรงนี้ ถ้าใครอยากลองเปิด Screen Reader เล่น ก็ลองไปเปิดเล่นได้ที่ตามนี้เลยครับ

- iOS: Settings > Accessibility > VoiceOver

- Android: Settings > Accessibility > TalkBack

(ถ้าใช้ไม่เป็นจะหาวิธีปิดยากหน่อยนะครับ เตือนแล้วน้า เตือนแล้วจริงๆ น้าาา)

Note: ถ้าใครเผลอเปิดไปแล้ว วิธีปิดง่ายที่สุดน่าจะเป็นการใช้ Voice assistant:

  • Android: เรียก Google Assistant (“Hey Google”) > “Turn TalkBack off.”
  • iOS: เรียก Siri (“Hey Siri”) > “Turn VoiceOver off.”

“ในฐานะนักออกแบบ เราจะออกแบบแอป/เว็บเพื่อผู้พิการทางสายตายังไง?”

จากที่เราเห็นวิธีใช้ Screen Reader ไปแล้ว ก็สรุปเป็นหลักคร่าวๆ ใหญ่ๆ ได้ประมาณนี้

1. ต้องทำแอปของเราให้รองรับ Screen Reader ถ้าเป็นไปได้ควรจะเขียนโค้ด UI ของแอปโดยใช้ library มาตรฐาน เพราะมันรองรับอยู่แล้ว

2. ระวังของต่างๆ บน UI ที่ต้องใช้ตาดูถึงจะเข้าใจ เช่นไอคอน รูป ฯลฯ ควรระบุในโค้ดด้วยว่าไอคอนนี้ ถ้า screen reader มาอ่าน จะอ่านว่าอะไร หรือถ้าใส่รูป ก็ควรเขียนคำบรรยายด้วยผ่าน alt text

3. สังเกตว่าการที่ Screen Reader อ่านทุกอย่างบนจอ มันช้า จากประสบการณ์ของผม หลายครั้งผู้ใช้ที่ใช้ Screen Reader จะไม่รอฟังให้จบประโยค แต่จะ skip ไปอ่านอันต่อไปทันทีที่พอรู้เรื่อง ดังนั้นเวลาเขียน text บนจอ ควรเข้าเรื่องให้เร็วที่สุด ข้อมูลอะไรที่จำเป็นเอาไปไว้ต้นประโยคให้หมด

4. ออกแบบอะไรออกมาแล้วอย่าคิดไปเองว่ามันจะเวิร์ค ควรทดสอบ App ของตัวเองกับ Screen Reader แต่อย่าแค่ลองกับตัวเองนะครับ ถ้าเป็นไปได้ต้องเอาไปทดสอบกับผู้พิการทางสายตาจริงๆ ด้วย เพราะหลายครั้งวิธีใช้ Screen Reader ของเรากับเขาไม่เหมือนกัน

มีอีกประเด็นนึงที่หลายๆ คน อ่านแล้วอาจจะสงสัย:

“เดี๋ยวนี้มือถือสั่งการด้วยเสียงได้แล้วนี่ ก็ใช้เสียงสั่งได้เลยมั้ย?”

ได้ครับ แต่ไม่ใช่คำตอบทั้งหมด การใช้เสียงสั่งการมีข้อดีข้อเสียอยู่ เช่น การสั่งการด้วยเสียง ผู้ใช้จะต้อง “นึก” ว่าจะสั่งอะไร แล้วต้องรู้ก่อน ว่าสั่งอะไรได้บ้าง

ซึ่งตามหลักการออกแบบแล้ว การให้ผู้ใช้ “นึก” แทนที่จะกางตัวเลือกออกมาให้เลือก มันยากกับผู้ใช้ (นึกภาพว่าทำข้อสอบเติมคำกับข้อสอบชอยส์ แบบไหนยากกว่า) หลักนี้เรียกว่าหลัก Recognition over recall ใช้ได้กับการออกแบบให้คนตาดีได้ด้วยครับ (แต่ recall ก็มีข้อดีคือถ้าใช้คล่องแล้วจะเร็ว)

ข้อเสียต่อมา ถ้าเราออกแบบคำสั่งเสียงให้ใช้ได้เฉพาะในแอปเรา ก็จะสับสนได้ง่าย เพราะพอไม่ได้มองจอ ก็จะต้องจำเพิ่มว่าตอนนี้เราอยู่ในแอปไหน แล้วก็จะงงว่าคำสั่งเสียงแต่ละอัน มันใช้กับแอปนี้ได้มั้ย ทางที่ดี ถ้าเป็นคำสั่งเสียง ควรจะทำให้รองรับระบบของ OS อย่าง Siri/Google Assistant ไปเลย

เรื่อง Screen Reader ก็จะมีประมาณนี้ ใครสนใจอยากศึกษาเพิ่มเติม ลองตามไปดูต่อได้ตามนี้ได้ครับ

  • คนตาบอดสาธิตวิธีใช้ VoiceOver (ภาพบนโพสต์นี้มาจากวิดีโอนี้)
  • Tommy Edison (YouTuber คนตาบอด เล่าเรื่องการใช้ชีวิตของคนตาบอด)

ส่วนถ้าใครอยากถอยออกมาดูภาพกว้างเรื่อง “การออกแบบเพื่อทุกคน” ลองค้นคีย์เวิร์ดพวกนี้ดูได้เลยครับ:

  • Accessibility
  • Assistive Technology
  • Inclusive Design
  • Universal Design
taepras.com

--

--

Tae Prasongpongchai

UX Designer by day, creative coder by night. Bangkok-based. Currently @ KBTG. Georgia Tech MS-HCI Alum. Former UX intern at Google Hardware.