Categories
Share Knowledge

4 แนวทางทำ Big Data Analytics ตอบโจทย์ยุค PDPA มาแรง พลิกอุปสรรคการจัดเก็บข้อมูล ให้เป็นโอกาสทางธุรกิจที่ยั่งยืน

       พรบ.คุ้มครองข้อมูลส่วนบุคคลหรือ PDPA ที่มีผลบังคับใช้ ส่งผลให้องค์กรมีความตื่นตัวในการปรับระบบให้มีความพร้อมและสอดรับต่อข้อบังคับดังกล่าว Blendata แนะ 4 แนวทางการทำ Big Data Analytics ตอบโจทย์ PDPA พร้อมช่วยองค์กรพลิกอุปสรรคในยุคการจัดการข้อมูลที่มีข้อจำกัด ให้เป็นโอกาสทางธุรกิจที่ยั่งยืน ด้วยการสร้างรากฐานโครงสร้างการบริหารจัดการข้อมูลที่เป็นระบบ มีความปลอดภัย และสามารถวิเคราะห์ต่อยอดข้อมูลให้เกิดประโยชน์ในด้านอื่น ๆ ได้อย่างมีประสิทธิภาพ

       หลังจากพระราชบัญญัติคุ้มครองข้อมูลส่วนบุคคล (Personal Data Protection Act ) หรือ กฎหมาย PDPA เริ่มประกาศใช้ไปแล้วเมื่อวันที่ 1 มิถุนายน 2565 ที่ผ่านมา เป็นเหตุผลให้ทุกองค์กรต่างให้ความสำคัญกับการวางระบบความปลอดภัยในข้อมูล เพื่อดูแลและปกป้องข้อมูลให้มีความปลอดภัยสูงสุด ป้องกันความเสียหายทั้งต่อบุคคล องค์กร และความเสียหายทางด้านกฎหมาย

       ก่อนหน้านี้ ธุรกิจในหลายอุตสาหกรรมล้วนมีการเก็บข้อมูลส่วนบุคคลของผู้ใช้งาน อย่างธุรกิจโทรคมนาคม หรือธุรกิจในกลุ่มการเงินและธนาคาร โดยนำข้อมูลดังกล่าวมาใช้วิเคราะห์ในเชิงลึก เพื่อให้ได้มาซึ่งกลยุทธ์การทำแคมเปญส่วนบุคคลต่าง ๆ รวมถึงการเพิ่มรายได้ ลดต้นทุน หรือการสร้างผลิตภัณฑ์และบริการใหม่ ๆ ซึ่งการประกาศใช้ PDPA จะทำให้การดึงข้อมูลมาใช้งานเป็นไปได้ยากขึ้น เพราะต้องได้รับอนุญาตจากเจ้าของข้อมูล ความแม่นยำลดลง ส่งผลกระทบต่อธุรกิจ ในทางกลับกัน ก็ส่งผลดีต่อเจ้าของข้อมูลที่กลับมามีสิทธิในข้อมูลของตนเอง สามารถกำหนดได้ว่าจะอนุญาตให้ใครใช้ข้อมูลได้หรือไม่ ซึ่งการจัดเก็บข้อมูลลูกค้าขององค์กรจะยังมีรูปแบบที่คล้ายเดิม ตามความต้องการทางธุรกิจ แต่สิ่งที่เปลี่ยนไปคือกระบวนการใช้งานข้อมูล ทั้งภายในและภายนอกที่ต้องมีมาตรฐาน ขั้นตอน และกระบวนการที่รัดกุมมากขึ้น

       Blendata แนะแนวทางการทำ Big Data Analytics วางรากฐานโครงสร้างการบริหารจัดการข้อมูลที่เป็นระบบ มีความปลอดภัย และสามารถวิเคราะห์ต่อยอดข้อมูลให้เกิดประโยชน์ในด้านอื่น ๆ ได้อย่างมีประสิทธิภาพ ด้วย 4 แนวทาง ดังนี้

  1. กำหนดเป้าหมายและนโยบายด้านข้อมูลของทุกฝ่ายในองค์กรให้ชัดเจนตรงกัน ผู้บริหารและพนักงานทุกฝ่ายที่เกี่ยวข้องควรหารือกันเพื่อกำหนดเป้าหมายและนโยบายด้านการจัดเก็บและใช้งานข้อมูลให้ชัดเจนตรงกัน โดยคำนึงถึงความสมดุลระหว่างข้อบังคับทางกฏหมายและผลประโยชน์ทางธุรกิจ การกำหนดเป้าหมายและนโยบายร่วมกันจะช่วยให้องค์กรเห็นภาพรวมของการใช้ข้อมูลทั้งภายในและภายนอกองค์กรอย่างครบถ้วน ส่งผลให้การวางแผนและดำเนินการต่อเนื่องในส่วนอื่น ๆ สามารถทำได้อย่างเป็นระบบและเป็นไปในทิศทางเดียวกัน
  2. วางโครงสร้างธรรมาภิบาลข้อมูล (Data Governance) ที่มีประสิทธิภาพ และมีการขออนุญาตจัดเก็บข้อมูลอย่างถูกต้อง องค์กรควรวางโครงสร้างการธรรมาภิบาลข้อมูล เพื่อให้บริหารจัดการข้อมูลได้อย่างถูกต้อง ปลอดภัย สามารถนำข้อมูลไปใช้ประโยชน์ได้อย่างมีประสิทธิภาพ โดยเริ่มจากการกำหนด Frameworks ที่ครอบคลุมทั้ง Life cycle ตั้งแต่จุดกำเนิดของข้อมูล กระบวนการจัดเก็บข้อมูล การจัดการข้อมูลให้มีคุณภาพ (Data Quality) การรักษาความปลอดภัย การประมวลผลและวิเคราะห์ การนำข้อมูลไปใช้งาน จนถึงการทำลายข้อมูล ซึ่งสอดคล้องกับ PDPA ที่กำหนดให้มีการขออนุญาตเก็บข้อมูลอย่างถูกต้องและจัดการข้อมูลเหล่านั้นอย่างปลอดภัย มีการกำหนดเวลาจัดเก็บข้อมูลที่ชัดเจน และจะต้องลบข้อมูลตามระยะเวลาที่กำหนดหรือเมื่อมีการร้องขอให้เพิกถอน โดยการทำ Data Governance นอกจากจะตอบโจทย์ทางด้านกฏหมายแล้ว ยังช่วยให้องค์กรสามารถนำข้อมูลไปวิเคราะห์ต่อยอดเพื่อประโยชน์ด้านอื่น ๆ ได้อย่างแม่นยำและมีประสิทธิภาพมากขึ้นอีกด้วย
  3. เลือกใช้เครื่องมือ Big Data Analytics ที่มีประสิทธิภาพ ยืดหยุ่นต่อการเปลี่ยนแปลง เพื่อรองรับการวิเคราะห์ข้อมูลที่รวดเร็วในต้นทุนที่ต่ำ ด้วยข้อกำหนดต่างๆ ที่อาจจะเกิดขึ้นเพิ่มเติมอีกในอนาคต องค์กรที่ขับเคลื่อนด้วยข้อมูลหลายแห่งมักพบปัญหาความซับซ้อนของข้อมูล รวมถึงการเติบโตอย่างรวดเร็วของข้อมูลที่หากระบบที่ใช้ไม่ยืดหยุ่น เป็นระบบปิด จะทำให้เกิดค่าใช้จ่ายในการขยายโซลูชันการวิเคราะห์ในทุกครั้งที่มีการเพิ่มข้อมูลหรือแก้ไขการวิเคราะห์เพิ่มเติม องค์กรจึงควรเลือกใช้เครื่องมือที่เป็นระบบเปิด มีความยืดหยุ่น สามารถรองรับข้อจำกัดในการเก็บรักษาข้อมูลตามหลัก PDPA พร้อมขยายระบบได้ตามการเติบโตของข้อมูลในอนาคต มีระบบความปลอดภัยตามมาตรฐานสากล สามารถค้นหาหรือดำเนินการกับข้อมูลได้อย่างรวดเร็วด้วยตนเอง เพื่อให้สามารถนำข้อมูลไปต่อยอดใช้งานได้ด้วยต้นทุนที่เหมาะสม อีกทั้งควรเลือกเทคโนโลยีที่คิดค่าใช้จ่ายตามการใช้งานจริง เพื่อความยืดหยุ่นในการจัดการค่าใช้จ่ายขององค์กรในอนาคต
  4. เพิ่มแนวทางการจัดเก็บข้อมูลชนิด First Party Data นอกจากการพึ่งพา Second Data Party Data และ Third Party Data แล้ว องค์กรควรวางแผนการจัดเก็บข้อมูลด้วยตนเองที่เรียกว่า First Party Data โดยวางแผนประสบการณ์ผู้ใช้งาน (User Experience) ให้สามารถผลิตข้อมูล และจัดเก็บข้อมูลได้ โดยควรจัดเก็บจากทุกช่องทางทั้งออฟไลน์และออนไลน์ ไม่ว่าจะเป็นข้อมูลจากระบบ CRM โซเชียลมีเดีย POS เว็บไซต์ แอปพลิเคชัน หรือ Offline Store เป็นต้น ซึ่งกลยุทธ์ First Party Data นี้จะทำให้องค์กรได้ข้อมูลที่มีความน่าเชื่อถือ มั่นใจได้ว่ามีการขออนุญาตจากเจ้าของข้อมูลอย่างถูกต้องตามหลัก PDPA แล้ว มีแหล่งที่มาชัดเจน มีความเกี่ยวข้องกับธุรกิจโดยตรง มีคุณภาพครบถ้วน โดยไม่ต้องกังวลถึงกฏระเบียบที่อาจเพิ่มเติมหรือเปลี่ยนไปในอนาคต ส่งผลให้องค์กรสามารถวิเคราะห์ต่อยอดได้อย่างแม่นยำ และนำมาซึ่งข้อมูลเชิงลึกที่เป็นประโยชน์ต่อธุรกิจ

       ทั้งนี้ Blendata ได้ร่วมมือกับ Partners ผู้เชี่ยวชาญในหลากหลายด้าน ตั้งแต่ด้านเทคโนโลยี ธุรกิจ ที่ปรึกษา การวิจัยและการศึกษา รวมถึงผู้เชี่ยวชาญด้าน PDPA โดยมีบริการให้คำปรึกษาเชิงกลยุทธ์ด้าน Big Data ที่สอดคล้องกับ PDPA ในส่วนของการวางสถาปัตยกรรมข้อมูล วางโครงสร้างการบริหารจัดการข้อมูลที่ถูกต้อง รวมทั้งบริการ Big Data แพลตฟอร์มที่ทำได้ตั้งแต่การทำ Data Discovery เพื่อค้นหาว่าข้อมูลที่สำคัญอยู่ที่ใด จนถึงการทำ Blueprint และการสร้าง Big Data แพลตฟอร์ม เพื่อการใช้ข้อมูลในอนาคต ซึ่งสามารถควบคุมธรรมาภิบาลได้ในที่ ๆ เดียว ตอบโจทย์การทำ Big Data Analytics ในยุค PDPA ที่ปลอดภัยและคุ้มค่ากับการลงทุน

Categories
Share Knowledge

เปิด 4 ความท้าทายบริหารจัดการ Big Data ของธุรกิจไทย แนะแนวทางก้าวพ้นอุปสรรค เพิ่มศักยภาพการแข่งขัน

       จากประสบการณ์ด้านการเป็นผู้พัฒนาแพลตฟอร์มบริหารจัดการ Big Data และการทำงานร่วมกับธุรกิจมากมายในประเทศไทยมากกว่า 7 ปี พบองค์กรในประเทศไทยยังคงเผชิญกับปัญหาในการบริหารจัดการข้อมูล และการนำข้อมูลมาใช้ให้เกิดประสิทธิภาพสูงสุด เผย 4 ความท้าทายในการทำ Big Data ที่องค์กรไทยต้องเผชิญ พร้อมแนะแนวทางแก้ไข ช่วยธุรกิจก้าวข้ามอุปสรรคการบริหารจัดการข้อมูลมหาศาลที่ซับซ้อนยุ่งยากให้ง่าย รวดเร็ว และมีประสิทธิภาพยิ่งขึ้น

       จากประสบการณ์ทำงานด้าน Big Data มากกว่า 7 ปี พบว่าบริษัทจำนวนมากในประเทศไทยให้ความสำคัญและต้องการที่จะนำ Big Data มาใช้ แต่ยังคงเผชิญกับปัญหาด้านการบริหารจัดการ Big Data เพื่อให้สามารถนำไปใช้ให้เกิดประสิทธิภาพสูงสุดและคุ้มค่าต่อการลงทุน นับเป็นความท้าทายของภาคธุรกิจที่ต้องพัฒนาขีดความสามารถในการบริหารจัดการ Big Data ให้มีความรวดเร็ว แม่นยำ และมีประสิทธิภาพสูง โดยพบ 4 ความท้าทาย ด้านการบริหารจัดการ Big Data ที่องค์กรไทยกำลังเผชิญดังนี้

       1.  รู้ว่า Big Data มีประโยชน์และควรเร่งทำ แต่ยังไม่มีแนวทางในการเริ่มต้น หลายองค์กรเจอกับคำถามที่ว่า “จะเริ่มทำอะไรดี” และเลือกที่จะลงทุนซื้อเครื่องมือต่าง ๆ มาไว้ก่อน แล้วหาทางใช้ภายหลัง ทำให้การวัดผลความสำเร็จโครงการหรือผลตอบแทนนั้นทำได้ยากหรืออาจไม่คุ้มกับการลงทุน เนื่องจาก Big Data ไม่ใช่เครื่องมือที่ซื้อมา แล้วจะสามารถให้ผลลัพธ์ทางธุรกิจได้ทันที แต่ต้องอาศัยความร่วมมือหลายด้าน ทั้งด้านกลยุทธ์ทางธุรกิจ ด้านบุคลากรที่มีความเชี่ยวชาญ ด้านข้อมูลที่มีในมือ หรือด้านกระบวนการทำงานที่เอื้อต่อการทำโครงการ จากความท้าทายในข้อนี้องค์กรควรเริ่มต้นจากการ

  • ระบุปัญหาหรือความต้องการขององค์กรในภาพรวมทั้งหมด เช่น องค์กรมีปัญหาด้านการให้บริการ ต้องการที่จะตรวจสอบและควบคุมคุณภาพด้านการบริการทั้งหมด หรือมีปัญหาด้านยอดขาย ต้องการที่จะเร่งให้ลูกค้าซื้อสินค้าเพิ่มมากขึ้น เป็นต้น
  • จัดลำดับความสำคัญบน 2 ปัจจัยคือ ผลกระทบ และความยากในการทำ ซึ่งจะเลือกหัวข้อที่ได้รับผลกระทบมาก และมีความยากในการทำน้อย เป็นตัวเลือกแรกในการทำ (Quick-win) และเลือกหัวข้อที่มีผลกระทบมาก แต่มีความยากในการทำสูง เป็น Long-term solution ที่อยู่ในแผนกลยุทธ์ขององค์กรต่อไป
  • ลงรายละเอียดด้านข้อมูลในแต่ละหัวข้อที่คัดเลือกมา โดยอาศัยความร่วมมือจากทั้งฝ่ายธุรกิจ ผู้ใช้งาน และไอที เพื่อกำหนดถึงรายละเอียดปลีกย่อย ตั้งแต่ข้อมูลที่เกี่ยวข้อง วิธีการใช้ หลักการวิเคราะห์ ที่ใช้งาน จนถึงผลลัพท์ที่คาดหวัง ซึ่งหลังจากทำเสร็จแล้ว จะสามารถตอบคำถามของธุรกิจได้ว่า ทำ Big Data เพื่อจุดประสงค์ใด มีองค์ประกอบอะไรบ้าง และนำมาซึ่งผลลัพท์ที่เป็นประโยชน์อย่างไร

       2.  ปัญหาด้านความซับซ้อนของโครงสร้างพื้นฐานและความไม่พร้อมของข้อมูล ส่วนใหญ่มักจะเกิดกับองค์กรที่ก่อตั้งมายาวนาน มีช่วงเปลี่ยนผ่านของระบบไอที หรือมีการสร้างระบบใหม่ขึ้นมามากขึ้นเพื่อตอบสนองความต้องการในด้านต่าง ๆ ซี่งมักทำให้เกิดหนี้ทางเทคนิค (Technical debt) ที่ส่งผลให้เกิดปัญหาด้านความซับซ้อนเชิงโครงสร้าง เช่น การใช้ Hardware, Software และ System จากหลากหลายผู้ผลิต ทำให้ข้อมูลที่จัดเก็บไม่อยู่ในรูปแบบเดียวกัน มีข้อมูลที่ซ้ำซ้อนกัน ไม่สามารถมีแหล่งข้อมูลจริงเพียงแห่งเดียว (Single source of truth-SSOT) ที่สามารถเชื่อถือได้ และมีปัญหาด้านคุณภาพของข้อมูล (Data quality) ทำให้ข้อมูลไม่มีความแม่นยำ จากปัญหาเหล่านี้ทำให้ก่อนการทำ Big Data จำเป็นต้องใช้เวลามากและทำได้ยาก ทำให้ต้องใช้ผู้เชียวชาญและเวลาในการบริหารจัดการค่อนข้างสูง ดังนั้นควรเริ่มจากจัดการกับข้อมูลตั้งต้นให้เสร็จสิ้นก่อนทำ Big Data  

  • สร้างและแก้ไขไปพร้อมกัน โดยเลือกในส่วนที่ต้องแก้ไขระบบหลังบ้านแบบน้อยที่สุดและพร้อมที่สุด เพื่อให้ได้เห็นผลลัพธ์เร็วที่สุด ซึ่งระหว่างทางการพัฒนานั้น อาจจะทำให้เห็นถึงปัญหาอื่น ๆ ที่ซ้อนอยู่เพิ่มเติม ก็สามารถแก้ไขระบบข้อมูลต้นทางเพื่อแก้ไขและจัดระเบียบให้เรียบร้อย (Cleansing) เพื่อรองรับการใช้งานในอนาคตต่อไป
  • ใช้ระบบ Big Data ที่สามารถรองรับการเชื่อมโยงข้อมูลในองค์กรได้หลากหลายรูปแบบ เพื่อสร้าง แหล่งข้อมูลจริงเพียงแห่งเดียว (Single source of truth) ที่ทำให้สามารถเข้าถึงข้อมูลได้ในทันทีลดความซับซ้อนของข้อมูลและการทำงานที่ไม่จำเป็น เพื่อใช้ประโยชน์ในด้านต่าง ๆ ไม่ว่าจะเป็นด้าน Business, Operation หรือทีมเทคนิค ซึ่งตัวช่วยสำคัญคือการเลือกใช้แพลตฟอร์ม Big Data ที่ควรรองรับการเชื่อมโยงข้อมูลในองค์กรเพื่อใช้งานได้อย่างรวดเร็ว มีต้นทุนแรงงานการใช้งานต่ำ แก้ปัญหาและหลีกเลี่ยงการเข้าไปรื้อแก้ไขโครงสร้างข้อมูลที่ซับซ้อนโดยตรง เพื่อให้ผู้ใช้งานสามารถใช้ข้อมูลที่ถูกรวบรวมไว้แล้วได้อย่างง่ายดายโดยไม่กระทบกับระบบเดิม
  • ดีไซน์ระบบการจัดเก็บข้อมูลแบบเปิด (Open-platform) เพื่อรองรับการเติบโตของข้อมูลในอนาคต เมื่อทำระบบ Big Data เป็น Single source of truth แล้ว สิ่งสำคัญคือระบบใหม่ที่ต้องยืดหยุ่นมากพอที่จะรองรับการใช้งานจากผู้ใช้งานหลายรูปแบบ รวมถึงรองรับการเชื่อมต่อกับแอปพลิเคชันหรือแพลตฟอร์มอื่น เพื่อหลีกเลี่ยงการถูกล็อกอินจากผู้ให้บริการรายใดรายหนึ่ง (Vendor lock-in) ซึ่งถ้าหากในอนาคตมีความต้องการใช้ข้อมูลจากแอปพลิเคชันอื่นจะต้องทำการเริ่มสร้างระบบใหม่ ซึ่งขัดกับวัตถุประสงค์ของ “Single” source of truth โดยปริยาย

       3.  ปัญหาด้านการควบคุมค่าใช้จ่ายจากปริมาณข้อมูลที่เติบโตขึ้น เป็นอีกหนึ่งความท้าทายสำคัญขององค์กรไทย ด้วยปริมาณข้อมูลที่เติบโตในยุคดิจิทัลซึ่งแปรผันโดยตรงกับค่าใช้จ่ายที่เพิ่มขึ้น การใช้เทคโนโลยีเดิมที่มีอยู่ เช่น ระบบคลังข้อมูลขององค์กร (Enterprise data warehouse) หรือฐานข้อมูล (Database) จึงไม่เพียงพอและไม่ตอบโจทย์ เนื่องจากความต้องการด้านทรัพยากรที่ค่อนข้างสูงในการจัดเก็บและประมวลผลข้อมูลขนาดใหญ่ให้ได้ประสิทธิภาพ จึงส่งผลให้เกิดค่าใช้จ่ายทางด้านลิขสิทธิ์ซอฟต์แวร์ ระบบสารสนเทศ​ และการดูแลรักษาที่ค่อนข้างสูง

       การเลือกใช้เทคโนโลยีทันสมัยที่เหมาะสมอย่าง Big Data technology มารองรับการจัดเก็บข้อมูลขนาดใหญ่นับเป็นทางเลือกสำคัญที่ต้องคำนึงถึง เพราะสามารถรองรับการขยายตัวของข้อมูลบนต้นทุนที่ต่ำ พร้อมทั้งสามารถบีบอัดข้อมูลให้เล็กลงได้หลายเท่าแต่ยังคงประสิทธิภาพเท่าเดิม ทำให้สามารถจัดเก็บข้อมูลขนาดใหญ่ได้ง่ายยิ่งขึ้น รวมถึงการประมวลผลของ Big data technology ที่ถูกสร้างขึ้นมาเพื่อประมวลผลข้อมูลขนาดใหญ่โดยเฉพาะ จึงทำให้สามารถประมวลผลข้อมูลที่ใช้อยู่เป็นประจำ เช่น การสร้างรายงานประจำวันสำหรับผู้บริหารหรือการส่งต่อข้อมูลให้ฝ่ายวิเคราะห์ได้รวดเร็วกว่าเดิม โดยจากประสบการณ์ของบริษัทฯ นั้น พบว่าลูกค้าหลายองค์กรที่สามารถลดระยะเวลาประมวลผลจากหลักหลายชั่วโมง เหลือเพียงหลักนาทีหรือวินาทีเท่านั้น ซึ่งส่งผลโดยตรงต่อค่าใช้จ่ายด้านทรัพยากรสารสนเทศ และลดระยะเวลาการดูแลของทรัพยากรบุคคลได้มาก จึงเป็นทางเลือกสำคัญที่องค์กรควรพิจารณา เพื่อตอบสนองความต้องการของธุรกิจและเพื่อความคล่องตัวในการปรับขยายให้พร้อมรองรับการเปลี่ยนแปลงในโลกธุรกิจที่เกิดขึ้นอย่างรวดเร็ว

       4.  ปัญหาด้านวัฒนธรรมองค์กรและบุคลากร วัฒนธรรมองค์กรแบบเดิม ๆ เช่น การที่แผนกไอทีเป็นเจ้าของโครงการ Big Data เพียงแผนกเดียว โดยไม่ได้มีแผนกอื่น เช่น ภาคธุรกิจ การตลาด หรือฝ่ายดำเนินการเข้ามาร่วมออกแบบหรือใช้งานข้อมูล รวมถึงไม่ได้มีการส่งเสริมให้พนักงานในองค์กรมีการใช้ข้อมูลในการทำงาน หรือผลักดันธุรกิจให้ขับเคลื่อนด้วยข้อมูล (Data-driven organization) รวมทั้งองค์กรยังขาดบุคลากรที่มีความรู้ความสามารถด้าน Big Data หรือ Data Analytics ซึ่งทำให้ยึดติดกับแนวคิดแบบเดิม

       ดังนั้นการสร้างวัฒนธรรมองค์กรที่สนับสนุนการใช้ข้อมูลในการทำงานและการตัดสินใจ (Data-driven) จึงเป็นหนึ่งในเรื่องสำคัญที่ทำให้องค์กรประสบความสำเร็จในการทำ Big Data ซึ่งฝ่ายบริหารควรผลักดันและส่งเสริมให้พนักงานทุกคน มีส่วนร่วมในการทำโครงการนี้ โดยเริ่มตั้งแต่การเลือกกรณีศึกษา กำหนดรายละเอียด กำหนดผลลัพธ์ที่ต้องการ เพื่อให้ทุกคนได้ใช้ข้อมูลมหาศาลเหล่านี้ประกอบการทำงานในทุกส่วน รวมทั้งการลงทุนกับเทคโนโลยีด้าน Big Data ที่สามารถใช้งานได้ง่ายและทำได้รวดเร็ว เพื่อลดระยะเวลาการเรียนรู้ (Learning curve) ของบุคลากร ทำให้พนักงานสามารถเข้าถึงและใช้งาน Data ที่จำเป็นต่อการทำงานด้วยตนเองได้อย่างรวดเร็ว เป็นการวางรากฐานที่ดีตั้งแต่ระบบการทำงานและบุคลากรภายในองค์กร นำไปสู่วัฒนธรรมองค์กรที่ใช้ข้อมูลเป็นเข็มทิศในการทำธุรกิจอย่างยั่งยืน

       อย่างไรก็ดี เพื่อเป็นตัวช่วยให้ธุรกิจก้าวข้ามความท้าทายในการใช้ Big Data บริษัทฯ ได้พัฒนา Blendata Enterprise – Simplify Big Data Platform ระบบที่ตอบโจทย์ทุกขั้นตอนการจัดการ Big Data ตั้งแต่รวบรวมข้อมูล จนถึงการนำข้อมูลไปใช้ ในแบบ Code-free พร้อมจัดเก็บและประมวลผลข้อมูลขนาดใหญ่แบบ Real-time ช่วยเพิ่มศักยภาพให้ธุรกิจพร้อมสำหรับทุกการแข่งขันด้วยเวลาที่รวดเร็ว ลดเวลาและลดความซับซ้อนในการเข้าถึงข้อมูล แม้ผู้ใช้งานไม่มีความรู้ด้าน IT หรือ Big Data ให้ทุกคนในองค์กรสามารถใช้งานข้อมูลได้อย่างง่ายดายผ่านหน้าเว็บ Browser ด้วยราคาที่สามารถจับต้องได้ ลดการลงทุนทางด้านบุคลากรเทคนิคเฉพาะด้าน ทรัพยากรคอมพิวเตอร์ ซอฟต์แวร์ไลเซนส์ และการบำรุงรักษา ช่วยให้องค์กรปรับเปลี่ยนสู่การเป็น Data-Driven Organization ได้อย่างรวดเร็ว ด้วยการรวบรวมทุกฟังก์ชันในการจัดการ Big Data ไว้ในแพลตฟอร์มเดียว แบบ All-in-one อีกทั้งยังสามารถนำข้อมูล Big Data ที่มีอยู่ในมือไปต่อยอดเพื่อยกระดับธุรกิจในด้านอื่น ๆ ได้อย่างอิสระ

 

Categories
Share Knowledge

ทำความรู้จัก Data Analytics ศาสตร์แห่งการวิเคราะห์ พร้อม 4 รูปแบบการวิเคราะห์ข้อมูลที่ช่วยสร้างประโยชน์ให้กับองค์กร

       Data Analytics คือการนำข้อมูลที่มีอยู่มาเข้าสู่กระบวนการวิเคราะห์ เพื่อนำข้อมูลไปใช้ประโยชน์ในด้านต่าง ๆ ที่ครอบคลุมในทุกอุตสาหกรรม ทั้งภาครัฐและภาคเอกชน ซึ่งจะต้องอาศัยเทคโนโลยีหรือซอฟต์แวร์เฉพาะด้านที่เข้ามาช่วยให้การประมวลผลและวิเคราะห์ข้อมูลเป็นไปอย่างแม่นยำและนำไปใช้งานได้อย่างมีประสิทธิภาพ โดยสามารถแบ่งประเภทของการวิเคราะห์ข้อมูล ได้ 4 รูปแบบ ตั้งแต่ Descriptive Analytics คือการวิเคราะห์ว่าเกิดอะไรขึ้น, Diagnostic Analytics คือการวิเคราะห์ว่าสิ่งนั้น ๆ เกิดขึ้นเพราะอะไร, Predictive Analytics คือวิเคราะห์เพื่อคาดการณ์แนวโน้มของสิ่งที่จะเกิดต่อไป และ Prescriptive Analytics คือการวิเคราะห์สิ่งที่จะเกิดขึ้นจากการใช้ทางเลือกต่าง ๆ ในเชิงแนะนำ

        Data Analytics Evolution
       –  การวิเคราะห์ข้อมูลแท้จริงแล้วเป็นเรื่องที่อยู่กับมนุษย์มาเป็นเวลานาน ซึ่งมีพื้นฐานมาจากการใช้ตัวเลขหรือสถิติ เพียงแต่ในสมัยก่อนการที่รัฐบาลหรือองค์กรจะบันทึกข้อมูล แล้วนำมาวิเคราะห์นั้น จะต้องใช้เวลานานและใช้ความพยายามอย่างสูง ตัวอย่างเช่น เมื่อย้อนกลับไปสมัยที่ยังไม่มีคอมพิวเตอร์ สำนักสำรวจสำมะโนประชากรของสหรัฐฯ ใช้เวลามากกว่า 7 ปีในการประมวลผลข้อมูลให้เสร็จสมบูรณ์

       –  แต่เมื่อยุคสมัยเปลี่ยนไป โลกเริ่มมีการพัฒนาความก้าวหน้าด้านเทคโนโลยี จนกระทั่งช่วงยุค 1940 – 1950 เป็นยุคที่องค์กรภาครัฐเริ่มใช้คอมพิวเตอร์ และเริ่มมีการวิเคราะห์ข้อมูลเกิดขึ้น รวมทั้งการวิเคราะห์ข้อมูลเริ่มถูกนำไปใช้ในองค์กรด้านงานวิจัยมากขึ้น โดยค่อย ๆ เริ่มจากการรวบรวมข้อมูลแบบออฟไลน์และวิเคราะห์ด้วยตนเอง

       –  ต่อเนื่องสู่ช่วงปลายยุค 1960 Analytics เริ่มได้รับความสนใจมากขึ้นเมื่อคอมพิวเตอร์กลายเป็นระบบสนับสนุนการตัดสินใจในด้านต่าง ๆ ทำให้มีการพัฒนาเทคโนโลยีเกิดขึ้น เช่น องค์กรด้านไอทีที่มีชื่อเสียงอย่าง IBM ได้คิดค้นเทคโนโลยีการเก็บข้อมูล “Disk storage” เป็นจุดเริ่มต้นของการเข้าถึงข้อมูลและแบ่งปันข้อมูลระหว่างคอมพิวเตอร์ได้ รวมทั้งมีการพัฒนาระบบจัดการฐานข้อมูล (DBMS) อีกด้วย เป็นยุคแรกเริ่มของการนำเทคโนโลยีมาช่วยในการวิเคราะห์ข้อมูลอย่างเห็นได้ชัด

       –  ต่อมาในยุค 1970 – 1980 ด้วยการพัฒนาของยุคสมัยและเทคโนโลยีที่รวดเร็ว บริษัทด้านเทคโนโลยี และสตาร์ทอัพหลายแห่ง ได้พัฒนานวัตกรรมที่เกี่ยวข้องกับข้อมูลขึ้นมามากมาย ไม่ว่าจะเป็น Relational database, Data warehouse, Decision support systems (DSS), SQL รวมทั้ง ETL เป็นต้น

       –  จนเข้าสู่ยุค 1990 การค้นหาออนไลน์ได้รับความนิยมมากขึ้น ทั้งในภาคธุรกิจและประชาชนทั่วไป โดยบริษัทยักษ์ใหญ่อย่าง Google, Amazon และ eBay เนื่องจากข้อมูลที่เพิ่มมากขึ้นเป็นจุดเริ่มต้นให้โลกเกิดคำว่า ข้อมูลมหาศาล หรือ Big data ขึ้นมา และทำให้เกิดนวัตกรรมต่าง ๆ ตามมา ไม่ว่าจะเป็น Database marketing, Data mart, OLAP, Data mining และ Data visualization ซึ่งเข้ามาช่วยในวิเคราะห์ข้อมูลแนวโน้มทางธุรกิจ ซึ่งทำให้ได้ข้อสรุปและคำแนะนำที่ดีขึ้นกว่าในยุคสมัยก่อน ๆ อย่างมาก ช่วยให้การทำธุรกิจมีประสิทธิภาพยิ่งขึ้น แต่ในขณะเดียวกัน เมื่อปริมาณข้อมูลมีการเพิ่มมากขึ้นอย่างรวดเร็ว หลายองค์กรจึงเริ่มพบปัญหาในการจัดเก็บและการประมวลผลข้อมูล

       –  จนมาถึงยุคปี 2000 จนถึงปัจจุบัน ซึ่งเป็นยุคของการใช้สมาร์ทโฟน, แอปพลิเคชัน หรืออุปกรณ์ที่เชื่อมต่อต่าง ๆ ซึ่งเป็นยุคเกิดการแข่งขันทางธุรกิจที่สูงมาก เพื่อเอาชนะใจลูกค้า ทำให้เกิดแพลตฟอร์มที่เกี่ยวกับการประมวลผลการวิเคราะห์ออนไลน์เกิดขึ้น และเกิดข้อมูลที่ไม่มีโครงสร้างขึ้นมากมาย ถือเป็นจุดเริ่มต้นของฐานข้อมูลรูปแบบใหม่ที่เรียกว่า NoSQL โดยในยุคนี้บริษัทไอทีทั่วโลก ได้มีการพัฒนาเทคโนโลยีใหม่ ๆ ออกมาเพื่อตอบโจทย์ความต้องการของธุรกิจ ไม่ว่าจะเป็น NoSQL, Cloud storage, Cloud computing, AI และ ML เป็นต้น ซึ่งเทคโนโลยีเหล่านี้ถูกพัฒนามาเพื่อลดข้อจำกัดในการจัดเก็บข้อมูล ช่วยให้สามารถประมวลผลข้อมูลได้เร็วและแม่นยำขึ้น สามารถนำข้อมูลไปวิเคราะห์ขั้นสูงเพื่อหาข้อมูลเชิงลึกที่เป็นประโยชน์ต่อธุรกิจ ทำให้ความสามารถของการทำ Data analytics นั้น ก็มีการยกระดับขึ้นไปพร้อมกับการพัฒนาของเทคโนโลยีต่อเนื่องมาจนถึงปัจจุบัน

         Descriptive Analytics คือการวิเคราะห์ข้อมูลแบบพื้นฐาน เพื่อแสดงผลที่เกิดขึ้น หรือกำลังจะเกิดขึ้น จากข้อมูลในอดีต ในลักษณะที่เข้าใจง่ายสามารถสร้างขึ้นได้ด้วยตนเอง เช่น รายงาน แผนภูมิ กราฟ ตาราง เป็นต้น ซึ่งจะช่วยให้เข้าใจการเปลี่ยนแปลงที่เกิดขึ้นกับองค์กรได้ดียิ่งขึ้น เช่น การเปลี่ยนแปลงของราคาสินค้ารายปี การเติบโตของยอดขายรายเดือน การเปรียบเทียบยอดขายในแต่ละสาขาหรือแต่ละช่องทาง การเปรียบเทียบจำนวนผู้ใช้งานเว็บไซต์ในแต่ละช่วงเวลา เป็นต้น ซึ่ง Descriptive Analytics คือการอธิบายสิ่งที่เกิดขึ้นตามวัตถุประสงค์และช่วงเวลาที่กำหนดนั่นเอง

        Diagnostic Analytics คือการวิเคราะห์เชิงวินิจฉัย ซึ่งเป็นรูปแบบหนึ่งของการวิเคราะห์ขั้นสูงแบบเจาะลึก โดยการวิเคราะห์ข้อมูลที่ได้จากการทำ Descriptive Analytics เพื่อหาคำตอบว่าทำไมจึงเกิดสิ่งนั้น ๆ หรืออธิบายปัจจัยและตัวแปรที่เป็นสาเหตุของการเกิดสิ่งนั้น ๆ ขึ้น ซึ่งจะต้องอาศัยเทคนิคต่าง ๆ เข้ามาช่วย เช่น การทำ Data discovery หรือ Data mining เป็นต้น ตัวอย่างการวิเคราะห์ข้อมูลเชิงวินิจฉัย เช่น อธิบายสาเหตุที่ทำให้ยอดขายเพิ่มขึ้น จำนวนผู้ใช้ที่เข้าชมเว็บไซต์เพิ่มขึ้น จำนวนลูกค้าที่เข้าใช้บริการที่หน้าร้านลดลง โปรโมชันที่ไม่ค่อยได้รับความนิยม เนื้อหาโฆษณาที่ได้ CTR% มากกว่าเนื้อหาอื่น ๆ หรือวิเคราะห์การทำงานของเครื่องคอมพิวเตอร์เพื่อตรวจจับความผิดปกติ เป็นต้น ข้อมูลเหล่านี้จะทำให้องค์กรรู้ถึงความต้องการของตลาด เข้าใจพฤติกรรมของลูกค้า รู้สาเหตุของปัญหาด้านเทคโนโลยี รวมถึงสามารถปรับปรุงวัฒนธรรมองค์กร เพื่อการทำงานที่ดีขึ้น

       Predictive Analytics คือการวิเคราะห์ข้อมูลทั้งข้อมูลในอดีตและปัจจบุันออกมาในเชิงคาดการณ์ ทำนาย หรือการพยากรณ์ เพื่อหาแนวโน้มที่จะเกิดสิ่งต่าง ๆ ขึ้นตามวัตถุประสงค์ที่กำหนด โดยการสร้างแบบจำลองทางสถิติ บวกกับการนำเทคโนโลยีปัญญาประดิษฐ์มาใช้ ซึ่งสามารถสร้างประโยชน์ได้มากมายในหลายแง่มุม เช่น การคาดการณ์ความเสี่ยงและโอกาส ยอดขาย ภัยไซเบอร์ สภาพอากาศ การลงทุน หุ้น หรือผลการเลือกตั้ง เป็นต้น อย่างไรก็ตามการทำ Predictive Analytics ที่ถูกต้องและแม่นยำนั้น ขึ้นอยู่กับคุณภาพของข้อมูล ซึ่งเป็นสิ่งที่องค์กรควรให้ความสำคัญเป็นอันดับแรก โดยการเตรียมข้อมูลให้มีคุณภาพที่ดีและเหมาะสม ก่อนนำไปใช้วิเคราะห์เพื่อให้เกิดผลลัพธ์ที่มีประสิทธิภาพ ลดข้อผิดพลาด และเกิดประโยชน์อย่างแท้จริง

       Prescriptive Analytics คือการวิเคราะห์แบบให้คำแนะนำ ซึ่งเป็นการวิเคราะห์ที่มีความซับซ้อนมากที่สุด ต่อเนื่องจากการทำ Predictive Analytics กล่าวคือ เมื่อได้ข้อมูลแนวโน้มที่จะเกิดบางสิ่งขึ้นแล้ว การทำ Prescriptive Analytics จะช่วยแนะนำแนวทางการดำเนินการในขั้นตอนต่อไปที่เหมาะสมที่สุด และวิเคราะห์ไปถึงผลที่จะเกิดขึ้นถ้าหากเลือกปฏิบัติตามแนวทางนั้น ๆ หรือแม้แต่แนะนำแนวทางในการรับมือและแก้ไขปัญหา การวิเคราะห์แบบให้คำแนะนำจึงถือเป็นเครื่องมือที่สำคัญอย่างมากสำหรับการตัดสินใจที่ขับเคลื่อนด้วยข้อมูล การวิเคราะห์แบบให้คำแนะนำคือทำงานร่วมกันระหว่าง Big data อัลกอริธึมของ Machine learning และเทคโนโลยี AI เพื่อช่วยในการวิเคราะห์ข้อมูลจำนวนมหาศาลที่มีความซับซ้อนเกินกว่าที่มนุษย์จะทำได้ ซึ่งการทำ Prescriptive Analytics ยังช่วยเพิ่มประสิทธิภาพในการตัดสินใจด้านต่าง ๆ ไม่ว่าจะเป็น ด้านการลงทุน ด้านการตลาด ด้านการตรวจจับการฉ้อโกง (Fraud Detection) ในอุตสาหกรรมธนาคาร ด้านการพัฒนาและปรับปรุงผลิตภัณฑ์ เป็นต้น ซึ่งนับว่าการวิเคราะห์ที่ทรงพลังเป็นอย่างมาก และเป็นแรงขับเคลื่อนสำคัญที่จะช่วยให้องค์กรสามารถบรรลุเป้าหมายทางธุรกิจได้อย่างรวดเร็วและมีประสิทธิภาพ

ขอบคุณข้อมูลอ้างอิงจาก
www.techtarget.com/searchdatamanagement/definition/data-analytics
www.dataversity.net/brief-history-analytics/
www.analyticsinsight.net/evolution-of-analytics-over-the-years/
www.online.hbs.edu/blog/post/types-of-data-analysis
www.afterinc.com/2018/12/28/brief-history-predictive-analytics-part-1/
www.afterinc.com/2019/01/03/brief-history-predictive-analytics-part-2/
www.afterinc.com/2019/01/15/brief-history-predictive-analytics-part-3/
www.studyonline.unsw.edu.au/blog/descriptive-predictive-prescriptive-analytics 
www.investopedia.com/terms/d/descriptive-analytics.asp
www.gartner.com/en/information-technology/glossary/diagnostic-analytics#
www.online.hbs.edu/blog/post/diagnostic-analytics 
www.dataversity.net/brief-history-analytics/
www.scnsoft.com/blog/4-types-of-data-analytics
www.online.hbs.edu/blog/post/prescriptive-analytics 
www.talend.com/resources/what-is-prescriptive-analytics/ 

Categories
Share Knowledge

Why Big Data is More Painful than Stepping on a Lego ความท้าทายในการทำ Big Data ที่องค์กรต้องก้าวข้าม

       ในช่วงปี 2019 ‘Big Data’ คือคำยอดฮิตที่ถูกพูดถึงเป็นอย่างมากในโลกธุรกิจ แต่จากสถิติของ Google Trend ในปี 2022 พบว่าคำค้นหาเกี่ยวกับหัวข้อ Big Data ในประเทศไทยลดลงเป็นอย่างมากในรอบ 2 ปีที่ผ่านมา ซึ่งในทางกลับกันการนำ Big Data ไปปรับใช้จริงของภาคอุตสาหกรรมเป็นสิ่งที่กำลังเริ่มต้นขึ้นแสดงให้เห็นว่า Big Data ไม่ใช่แค่เทรนด์ใหม่อีกต่อไป แต่กลายเป็นเทคโนโลยีสำคัญที่ทุกอุตสาหกรรมจำเป็นต้องนำไปปรับใช้เพื่อเพิ่มมูลค่าทางธุรกิจและเป็นหัวใจสำคัญของการเปลี่ยนองค์กรแบบเก่าให้เป็นองค์กรที่ขับเคลื่อนด้วยข้อมูล
       Big Data คือข้อมูลมหาศาลที่ถูกรวบรวมจากหลายแหล่งที่มา (Data Source) และมีการเปลี่ยนแปลงอย่างรวดเร็ว ไม่ว่าจะเป็นข้อมูลการทำธุรกรรมของลูกค้า ข้อมูลการใช้งานอุปกรณ์เครือข่าย ข้อมูลพฤติกรรมการซื้อสินค้า ข้อมูลการทำงานของเครื่องจักร ข้อมูลการเข้าใช้บริการ รวมไปถึงข้อมูลพนักงานภายในองค์กร โดยข้อมูลเหล่านี้คือข้อมูลที่รอการนำไปต่อยอด ผ่านการวิเคราะห์และประมวลผลโดยเทคโนโลยีหรือระบบอัตโนมัติ ซึ่ง Big Data ถือเป็นเทคโนโลยีที่สร้างโอกาสใหม่ ๆ ให้กับองค์กรในหลายด้าน ไม่ว่าจะเป็นช่วยยกระดับระบบการทำงานในรูปแบบเดิม ๆ ขององค์กรให้มีประสิทธิภาพยิ่งขึ้น ช่วยในการตัดสินใจและวางแผนกลยุทธ์ทางธุรกิจ ช่วยสร้างการเติบโตทางรายได้ ช่วยสร้างความได้เปรียบทางการแข่งขัน และพประโยชน์ในด้านอื่น ๆ อีกมากมาย สอดคล้องกับข้อมูลสถิติของ NewVentage Partners ปี 2022 พบว่า 92% ของบริษัทกล่าวว่าได้รับผลตอบแทนที่คุ้มค่าจากการลงทุนใน Big Data and AI

       ปัจจุบัน Big Data ถูกนำไปใช้ในแทบจะทุกธุรกิจ ตั้งแต่ธุรกิจธนาคาร ประกันภัย โทรคมนาคม สุขภาพ ยานยนต์ น้ำมันและก๊าซ รวมถึงธุรกิจค้าปลีก แต่ในขณะเดียวกันหลายองค์กรยังต้องเผชิญกับ Pain Points และปัญหาในการทำ Big Data ที่ทำให้ไม่สามารถผลักดันโปรเจค Big Data ให้ประสบความสำเร็จได้

       ปัญหาที่ 1: การลงทุนด้าน Big Data มีค่าใช้จ่ายที่ค่อนข้างสูง
       จากการสำรวจผู้บริหารระดับสูง โดย NewVantage Partners ปี 2019 พบว่า 55% ของบริษัทกล่าวว่าการลงทุนใน Big Data และ AI ต้องใช้เงินมากกว่า 50 ล้านเหรียญสหรัฐ สอดคล้องกับองค์กรในประเทศไทยที่มีการลงทุนค่อนข้างสูงในการทำ Big Data ไม่ว่าจะเป็นค่าใช้จ่ายในการจ้างบุคลากรที่มีความเชี่ยวชาญในด้าน Big Data โดยเฉพาะ บวกกับขั้นตอนการจัดการ Big Data แบบเดิมที่ซับซ้อน ทำให้เกิดค่าใช้จ่ายในส่วนของ Software และ Hardware ที่สูงตามไปด้วย ส่งผลกระทบต่อต้นทุนโดยรวมของทั้งโครงการ (Total cost of ownership) ทำให้การทำ Big Data ถูกจำกัดอยู่แค่องค์กรขนาดใหญ่เท่านั้น

       ปัญหาที่ 2: วัฒนธรรมองค์กร บุคลากร และขั้นตอนการทำงานภายในองค์กร คือปัจจัยหลักที่ทำให้การทำ Big Data ไม่ประสบความสำเร็จ
       จากข้อมูลสถิติของ NewVantage Partners ปี 2022 ชี้ให้เห็นว่าบริษัทต่าง ๆ ถึงจุดอิ่มตัวและมั่นใจในความสามารถในการใช้ข้อมูลของตนเองแล้ว แต่ในปี 2022 มีเพียง 27% ของบริษัททั้งหมดที่สร้าง “องค์กรที่ขับเคลื่อนด้วยข้อมูล” สำเร็จ และ 19% ของบริษัททั้งหมดสร้าง “วัฒนธรรมการนำข้อมูลมาใช้ช่วยตัดสินใจทางธุรกิจ“ สำเร็จ นอกจากนี้ NewVentage Partners ได้ระบุเพิ่มเติมว่าอุปสรรคทางวัฒนธรรมองค์กรยังคงเป็นอุปสรรคสำคัญที่สุดในการขับเคลื่อนองค์กรด้วยข้อมูล โดย 91.9% ของผู้ตอบแบบสำรวจระบุว่านี่เป็นความท้าทายที่ยิ่งใหญ่
       จากตัวเลขสถิติทั้งหมดแสดงให้เห็นว่าในปัจจุบันเทคโนโลยีไม่ใช่อุปสรรคในการ Big Data อีกต่อไป แต่สิ่งที่เป็นอุปสรรคโดยแท้จริง กลับเป็นปัจจัยที่เกิดจากวัฒนธรรมขององค์กร บุคลากร และขั้นตอนการทำงานภายในองค์กร เนื่องจากบุคลากรส่วนใหญ่ในประเทศไทยยังขาดความรู้ความสามารถในการนำข้อมูลมาใช้ให้เกิดประโยชน์กับธุรกิจ และอาจยังคุ้นชินกับระบบการทำงานแบบเดิม ๆ รวมถึงการใช้ข้อมูลยังถูกตีกรอบให้เป็นเพียงหน้าที่ของผู้บริหารหรือทีม Business ที่เกี่ยวข้องเท่านั้น ซึ่งเป็นความท้าทายขององค์กรที่จะต้องวางรากฐานให้บุคลากรทุกคน ทุกฝ่าย มีความรู้ความเข้าใจในการใช้ข้อมูล ทั้งในด้านของการใช้เครื่องมือและการวิเคราะห์ เพื่อสร้างความได้เปรียบทางการแข่งขันในระยะยาวและปรับเปลี่ยนเป็นองค์กรที่ขับเคลื่อนด้วยข้อมูลอย่างยั่งยืน

       ปัญหาที่ 3: การปรับเปลี่ยนองค์กรแบบเก่าให้เป็น ‘องค์กรที่ขับเคลื่อนด้วยข้อมูล’ ต้องใช้เวลามากถึง 2-3 ปี
       จากข้อมูลสถิติของ NewVantage Partners ปี 2022 พบว่า 60% ของบริษัทต้องใช้เวลา 2-3 ในการเปลี่ยนเป็นองค์กรที่ขับเคลื่อนด้วยข้อมูล ซึ่งในประเทศไทยเองก็พบปัญหาจากการทำ Big Data ในรูปแบบเดิม คือเมื่อองค์กรต้องการรวบรวม จัดการ วิเคราะห์ ประมวลผล หรือนำข้อมูลไปใช้นั้นจะต้องผ่านขั้นตอนที่ซับซ้อน โดยแต่ละขั้นตอนก็มีการใช้เครื่องมือในการจัดการที่ต่างกัน บวกกับต้องอาศัยบุคลากรที่มีความเชี่ยวชาญในแต่ละด้านเข้ามาช่วย ซึ่งทั้งหมดนี้ก่อให้เกิดปัญหาความซับซ้อนของการจัดการโครงสร้างพื้นฐานข้อมูล ทำให้กว่าที่องค์กรจะทำโปรเจค Big Data ได้สำเร็จนั้นต้องใช้เวลาค่อนข้างมาก ซึ่งอาจส่งผลกระทบต่อความสามารถขององค์กรในการแข่งขันทางธุรกิจ
       ปัญหาอื่น ๆ:
      •   องค์กรมีข้อมูลมหาศาลอยู่ในมือ แต่เต็มไปด้วยข้อมูลที่ไม่มีคุณภาพ
      •   การเข้าถึงข้อมูลถูกจำกัดเพียงแค่ผู้บริหาร ทีม IT หรือทีม Business เท่านั้น ไม่ใช่บุคลากรทุกคนที่จะสามารถเข้าถึงข้อมูลและใช้งานข้อมูลได้ด้วยตนเอง
      •   ไม่มีการแชร์ข้อมูลระหว่างแผนกในองค์กรและไม่มีการใช้เครื่องมือที่รองรับการแชร์ข้อมูลระหว่างกัน
      •   องค์กรมีระบบการจัดเก็บข้อมูลที่ไม่เป็นระเบียบ กระจัดกระจาย ทำให้พลาดข้อมูลบางอย่างหรือไม่รู้ใครมีข้อมูลอะไรอยู่บ้าง ซึ่งอาจทำให้พลาดโอกาสที่ซ่อนอยู่ในข้อมูลเหล่านั้น
      •   องค์กรขาดพนักงานที่มีความสามารถในการวิเคราะห์ข้อมูล

       จากปัญหาทั้งหมดทำให้การทำ Big Data ถูกจำกัดอยู่แค่ธุรกิจขนาดใหญ่ รวมทั้งบางองค์กรต้องล้มเลิกโปรเจคไป หรืออาจใช้เวลานานเกินไปจนสูญเสียค่าใช้จ่ายและสร้างภาระงานให้กับบุคลากร ซึ่งนั่นคือความท้าทายที่ทุกองค์กรต้องพยายามก้าวข้ามไป เพราะ Big Data คือเทคโนโลยีสำคัญที่ไม่สามารถมองข้ามได้ องค์กรจึงต้องมองหาเทคโนโลยี โซลูชัน และวิธีการจัดการที่ได้ประสิทธิภาพ เพื่อให้สามารถนำข้อมูลไปต่อยอดทางธุรกิจและพร้อมรับมือทุกการแข่งขันที่ดุเดือดในโลกดิจิทัล

       Blendata Enterprise – Simplify Big Data Platform ช่วยธุรกิจก้าวข้ามความท้าทายในการใช้ Big Data ด้วยระบบที่ตอบโจทย์ทุกขั้นตอนการจัดการ Big Data ตั้งแต่รวบรวมข้อมูล จนถึงการนำข้อมูลไปใช้ ในแบบ Code-free พร้อมจัดเก็บและประมวลผลข้อมูลขนาดใหญ่แบบ Real-time ช่วยเพิ่มศักยภาพให้ธุรกิจพร้อมสำหรับทุกการแข่งขันด้วยเวลาที่รวดเร็ว ลดเวลาและลดความซับซ้อนในการเข้าถึงข้อมูล แม้ผู้ใช้งานไม่มีความรู้ด้าน IT หรือ Big Data ให้ทุกคนในองค์กรสามารถใช้งานข้อมูลได้อย่างง่ายดายผ่านหน้าเว็บ Browser ด้วยราคาที่สามารถจับต้องได้ ลดการลงทุนทางด้านบุคลากรเทคนิคเฉพาะด้าน ทรัพยากรคอมพิวเตอร์ ซอฟต์แวร์ ไลเซนส์ และการบำรุงรักษา ช่วยให้องค์กรปรับเปลี่ยนสู่การเป็น Data-Driven Organization ได้อย่างรวดเร็ว ด้วยการรวบรวมทุกฟังก์ชันในการจัดการ Big Data ไว้ในแพลตฟอร์มเดียว แบบ All-in-one อีกทั้งยังสามารถนำข้อมูล Big Data ที่มีอยู่ในมือไปต่อยอดเพื่อยกระดับธุรกิจในด้านอื่น ๆ ได้อย่างอิสระ

       ขอบคุณข้อมูลจากคุณกัน ณัฐนภัส รชตะวิวรรธน์ CEO & Co-Founder ของ Blendata ที่ได้รับเชิญให้เป็น Speaker ในงาน G-Able Technology Enabler โดยร่วมพูดคุยและให้ความรู้ในหัวข้อ Why Big Data is More Painful than Stepping on a Lego เมื่อวันที่ 30 มีนาคม 2565 ที่ผ่านมา

Categories
Share Knowledge

Data หัวใจของ AI แนะ 4 ทริคจัดการข้อมูล สร้าง AI อัจฉริยะ

       Blendata แนะองค์กรวางกลยุทธ์ Data Management ให้มีประสิทธิภาพ ก่อนลงทุนใช้ระบบ AI เพราะสมองที่ชาญฉลาดจำเป็นต้องมีข้อมูลคุณภาพเป็นตัวขับเคลื่อนให้ทรงประสิทธิภาพสูงสุด องค์กรควรบริหารจัดการข้อมูลด้วย 4 องค์ประกอบคือ 1. รวบรวมการเข้าถึงหรือดึงการใช้ข้อมูลมาบริหารจัดการไว้ในที่เดียว 2. การบริหารจัดการข้อมูลให้พร้อมใช้งานและมีคุณภาพ 3. ควบคุมสิทธิการเข้าถึงและการปกป้องข้อมูลเพื่อสร้างเกาะป้องกันข้อมูล และ 4. ออกแบบให้รองรับการใช้งานข้อมูลที่หลากหลาย

       เทคโนโลยีปัญญาประดิษฐ์ หรือ AI (Artificial intelligence) คือหนึ่งในเทคโนโลยีที่ถูกให้ความสำคัญเป็นอย่างมาก โดยถูกปรับใช้ในองค์กรและธุรกิจทั่วโลก เพื่อช่วยเสริมประสิทธิภาพการทำงานทั้งในด้านธุรกิจและการปฏิบัติงาน (Operation) จากการสำรวจของ NewVantage Partners พบว่า 97.2% ขององค์กรกำลังลงทุนในด้าน AI และ Big Data แสดงให้เห็นถึงความตื่นตัวของภาคอุตสาหกรรมที่กำลังเร่งปรับใช้เทคโนโลยีเพื่อประโยชน์ทางธุรกิจและรับมือกับการแข่งขันในโลกดิจิทัล และที่สำคัญ AI ยังช่วยเพิ่มมูลค่าและสร้างผลกำไรให้กับธุรกิจได้อีกด้วย ในอนาคตอันใกล้เทคโนโลยี AI จะถูกนำไปปรับใช้ในทุกอุตสาหกรรมและทุกการดำเนินงานขององค์กร แต่การที่องค์กรจะใช้ AI ได้เต็มศักยภาพและไม่เกิดข้อผิดพลาดนั้น จะต้องอาศัยปัจจัยหลัก 2 ด้าน คือ ข้อมูลและบุคลากรผู้เชี่ยวชาญ จึงจะสามารถขับเคลื่อนเทคโนโลยี AI ให้เกิดผลลัพธ์ได้ดีที่สุด ซึ่งปัจจัยสำคัญที่ควรคำนึงถึงก่อนลงทุนใช้ระบบ AI คือ การบริหารจัดการข้อมูล หรือ Data Management ให้มีประสิทธิภาพ

       “Big Data เปรียบเสมือนเชื้อเพลิงที่สำคัญของ AI การจะสร้าง AI ให้มีมันสมองอันชาญฉลาด จำเป็นอย่างยิ่งที่จะต้องมีการจัดเก็บรวบรวม Big Data ที่มีคุณภาพ ครบถ้วนในทุกมิติของธุรกิจ หากองค์กรจะเริ่มใช้ AI ในการเพิ่มศักยภาพทางธุรกิจต้องเริ่มจากการวางโครงสร้างการจัดการข้อมูลและระบบไอทีให้ดีก่อนโดยการตรวจสอบข้อมูลที่มีว่ามีคุณภาพและพร้อมใช้งานหรือไม่ หากบริหารจัดการข้อมูลไม่มีประสิทธิภาพ ก็จะส่งผลให้  AI ดึงข้อมูลที่ไม่ได้คุณภาพ ไม่ถูกต้อง หรือไม่สมบูรณ์มาใช้งาน ซึ่งจะส่งผลให้ผลลัพธ์ที่ได้จากการประมวลผลมีการคลาดเคลื่อนและไม่ก่อให้เกิดประโยชน์ทางธุรกิจ ดังนั้นการวางโครงสร้างการจัดการข้อมูลให้มีประสิทธิภาพ จึงเป็นหัวใจสำคัญที่องค์กรต้องจัดการก่อนที่จะเริ่มใช้เทคโนโลยี AI ต่อไป”

       องค์กรควรพัฒนาการบริหารจัดการข้อมูล หรือ Data Management ก่อนเริ่มต้นใช้เทคโนโลยี AI ซึ่งประกอบด้วย 4 องค์ประกอบสำคัญ คือ 

  1. การรวบรวมการเข้าถึงหรือดึงการใช้ข้อมูลมาบริหารจัดการไว้ในที่เดียว เพื่อให้สามารถจัดการใช้ข้อมูลในองค์กรได้ง่าย เช่น การทำ Data warehouse ในสมัยก่อน หรือการทำ Data lake ในยุคสมัย Big data ในปัจจุบัน ทำให้สามารถเชื่อมโยงข้อมูลที่เกี่ยวข้องทั้งหมดได้ในที่เดียว เพื่อนำไปใช้งานได้รวดเร็ว เห็นมุมมองที่แปลกใหม่ รวมไปถึงทำให้ AI มีความฉลาดจากข้อมูลที่หลากหลายและครบถ้วน 
  2. การบริหารจัดการให้ข้อมูลเหล่านั้นพร้อมใช้งาน แน่นอนว่าการดึงข้อมูลที่มาจากหลายแหล่ง ย่อมหลีกเลี่ยงปัญหาข้อมูลไม่พร้อมหรือไม่สมบูรณ์ (Corrupted data) ข้อมูลขยะ (Junk data) หรือข้อมูลที่จัดเก็บในรูปแบบที่หลากหลาย จึงเกิดกระบวนการหรือการใช้เครื่องมือที่หลีกเลี่ยงไม่ได้ อย่างเช่นการทำความสะอาดข้อมูล การเปลี่ยนแปลงรูปแบบข้อมูล หรือกระบวนการประมวลผลด้านข้อมูลใดก็ตามที่ทำให้ข้อมูลพร้อมใช้งาน ทำให้ AI ได้รับข้อมูลที่ถูกต้อง ส่งผลให้ผลลัพธ์จากการเรียนรู้ของ AI ไม่เกิดข้อผิดพลาด เอนเอียง (Biased) หรือหากข้อมูลในองค์กรมีความหลากหลาย มีความเสี่ยงที่จะเกิดการเปลี่ยนแปลงรูปแบบของข้อมูล การทำ Data quality เพื่อคอยตรวจสอบและแก้ไขข้อมูลที่ผิดพลาดอย่างทันท่วงทีก็เป็นหนึ่งในวิธีที่ช่วยเพิ่มประสิทธิภาพการควบคุมคุณภาพของข้อมูลได้  
  3. ควบคุมสิทธิการเข้าถึงและการปกป้องข้อมูล เพื่อสร้างเกาะป้องกันความปลอดภัยข้อมูล เมื่อรวบรวมข้อมูลไว้ในที่เดียวกันแล้ว สิ่งที่ควรคำนึงอย่างมากคือการควบคุมไม่ให้ผู้ที่ไม่มีสิทธิเข้าถึงข้อมูลสำคัญขององค์กร หรือข้อมูลส่วนบุคคลของลูกค้า ไม่ว่าจะเป็นการกำหนดสิทธิการเข้าถึงของข้อมูลที่ได้มาตรฐาน การเข้ารหัสข้อมูลที่จัดเก็บและการสื่อสารภายในทั้งหมด (Encryption) การปกปิดข้อมูลที่สำคัญเพื่อป้องกันการเห็นข้อมูลโดยไม่จำเป็น (Masking) ซึ่งเหล่านี้ล้วนเป็นเทคนิคที่ควรปรับใช้ตามแต่โครงสร้างและดีไซน์เทคโนโลยีขั้นพื้นฐานขององค์กร รวมถึงตามความสำคัญของข้อมูลที่จัดเก็บ  
  4. ออกแบบให้สามารถรองรับการใช้งานข้อมูลที่หลากหลาย ในโลกยุคปัจจุบันที่ข้อมูลคือขุมทรัพย์น้ำมันแห่งใหม่ การรองรับการนำข้อมูลไปประยุกต์ใช้ในรูปแบบที่หลากหลายและทันท่วงที คือสิ่งสำคัญที่สุดของ Data management ในปัจจุบัน ไม่ว่าจะเป็นการนำไปใช้รูปแบบเดิมอย่างไฟล์ รีพอร์ต หรือการนำไปใช้ในรูปแบบใหม่อย่างแดชบอร์ด, Business intelligence, API, หรือการส่งต่อข้อมูลในรูปแบบ Batch, หรือ Real-time เพื่อเป็นข้อมูลตั้งต้นที่สำคัญสำหรับ Machine learning และ Artificial Intelligence ที่นำข้อมูลมหาศาลเหล่านี้ไปเรียนรู้ หรือนำไปใช้ เพื่อทำในสิ่งที่มนุษย์อาจทำไม่ได้

       อย่างไรก็ตาม Data Management นับเป็นกลยุทธ์สำคัญ ที่ช่วยยกระดับความสามารถของเทคโนโลยี AI ตามที่ Gartner ได้ให้ความหมายของ Data Management ไว้ว่า “การรวบรวมแนวทางการจัดการโครงสร้าง เทคนิค และเครื่องมือ เพื่อให้สามารถเข้าถึงและส่งต่อข้อมูลที่ต้องการในทุกรูปแบบ ตอบโจทย์ในทุก ๆ ความต้องการทางด้านการประยุกต์ใช้และทุกขั้นตอนทางธุรกิจ” นั้น เพื่อให้ถึงเป้าหมายของการทำ Data Management ที่สามารถใช้งานข้อมูลในการวิเคราะห์ได้อย่างรวดเร็ว รวมถึงเป็นวัตถุดิบที่ทำให้ AI มีประสิทธิภาพสูงสุด องค์กรจึงต้องดำเนินการบริหารจัดการข้อมูลให้พร้อม เพื่อให้ได้มาซึ่งผลลัพธ์ทางธุรกิจที่คุ้มค่า จากการใช้เทคโนโลยี AI ที่ทรงพลังและชาญฉลาด

Categories
Share Knowledge

Big Data + AI การทำงานร่วมกันของ 2 สุดยอดเทคโนโลยี ที่ช่วยยกระดับธุรกิจให้พร้อมทุกการแข่งขัน

       ในยุคดิจิทัล Big Data และ AI คือเทคโนโลยีที่มีบทบาทต่อโลกธุรกิจเป็นอย่างมาก ทั้ง 2 เทคโนโลยีถูกนำไปใช้ยกระดับธุรกิจในหลากหลายรูปแบบ ไม่ว่าจะเป็นการใช้ Big Data ผสานกับการวิเคราะห์ของ AI ประกอบการตัดสินใจและวางแผนกลยุทธ์ทางธุรกิจเพื่อสร้างผลกำไรและลดค่าใช้จ่ายที่ไม่จำเป็น การคาดการณ์แนวโน้มของตลาด การวิเคราะห์พฤติกรรมเชิงลึกของผู้บริโภค การพัฒนาระบบการทำงานภายในองค์กรเพื่อลดข้อผิดพลาดของมนุษย์ (Human error) เพิ่มประสิทธิภาพระบบขนส่ง (Logistic) ใช้เป็นข้อมูลในการสร้างสรรค์ผลิตภัณฑ์ใหม่ ๆ ส่งเสริมการทำการตลาดแบบ Personalization ช่วยในการสรรหาบุคลากร รวมถึงการบริหารจัดการ Customer Experience และอื่น ๆ อีกมากมาย

       จากผลสำรวจของ Forrester consulting พบว่าบริษัทที่ขับเคลื่อนด้วยข้อมูลมีแนวโน้มที่จะบรรลุเป้าหมายด้านรายได้มากกว่าบริษัทที่ไม่เน้นการใช้ข้อมูลถึง 58% สอดคล้องกับผลสำรวจของ PWC ระบุว่า 54% ของผู้บริหารกล่าวว่าโซลูชัน AI ได้เพิ่มประสิทธิภาพการทำงานให้กับธุรกิจ แสดงให้เห็นว่า Big Data และ AI คือแรงขับเคลื่อนสำคัญของการทำธุรกิจที่ทุกอุตสาหกรรมรวมถึงองค์กรทุกขนาดต้องเร่งปรับใช้และก้าวสู่การเป็น Data-driven organization เพื่อเตรียมพร้อมในทุกการแข่งขัน

       Big Data คือข้อมูลขนาดใหญ่ที่มีการเปลี่ยนแปลงอย่างรวดเร็วและมีปริมาณมหาศาล ไม่ว่าจะเป็นข้อมูลเชิงโครงสร้าง กึ่งโครงสร้าง หรือไม่มีโครงสร้าง ซึ่งข้อมูลเหล่านี้ถือเป็นข้อมูลที่รอการนำไปต่อยอดเพื่อสร้างมูลค่าให้กับองค์กร ผ่านการวิเคราะห์และประมวลผลโดยเทคโนโลยีหรือระบบอัตโนมัติ แต่การที่จะทำ Big Data ให้สำเร็จนั้น เพียงแค่มีข้อมูลจำนวนมหาศาลอย่างเดียวอาจไม่เพียงพอ เนื่องจากข้อมูลที่ใช้จะต้องมีคุณภาพสูง เหมาะกับการนำไปวิเคราะห์เพื่อให้ได้ Insight ในด้านต่าง ๆ ซึ่งต้องประกอบด้วยคุณสมบัติตามหลักการ 5V คือ 1. Volume ข้อมูลที่มีปริมาณมหาศาล 2. Velocity ข้อมูลที่ถูกสร้างขึ้นอย่างรวดเร็วและมีการเปลี่ยนแปลงตลอดเวลา 3. Variety รูปแบบของข้อมูลที่มีความหลากหลาย 4. Variability ข้อมูลที่ยืดหยุ่นและเปลี่ยนแปลงไปตามทิศทางการใช้งาน 5. Veracity ข้อมูลที่มีความน่าเชื่อถือ

       AI (Artificial Intelligence) หรือปัญญาประดิษฐ์ คือเทคโนโลยีที่ถูกออกแบบให้มีระบบการทำงานเหมือนสมองมนุษย์ โดยมีความสามารถในการเรียนรู้และจดจำข้อมูล รูปภาพ ภาษา สามารถทำการวิเคราะห์ ประมวลผล คาดการณ์และตอบสนองได้ 

       ดังนั้น Big Data และ AI จึงเป็นการทำงานที่สัมพันธ์กันและช่วยส่งเสริมความสามารถของกันและกัน เนื่องจาก AI ต้องการข้อมูลมหาศาลที่มีคุณภาพ เพื่อการเรียนรู้และวิเคราะห์อย่างแม่นยำ ส่วน Big Data นั้นก็ต้องการความฉลาดของ AI เพื่อช่วยในการวิเคราะห์ข้อมูลมหาศาลออกมาได้อย่างสมบูรณ์แบบ ซึ่งแสดงให้เห็นว่า ‘Big Data’ คือพื้นฐานของ AI และการทำงานร่วมกันของทั้ง 2 เทคโนโลยี ช่วยให้ได้มาซึ่ง Insight ที่จะนำไปสู่ผลลัพธ์ทางธุรกิจที่ดียิ่งขึ้น

       อย่างไรก็ตามการที่องค์กรจะใช้เทคโนโลยี Big Data และ AI ได้เต็มศักยภาพและไม่เกิดข้อผิดพลาดนั้น จะต้องอาศัยปัจจัยหลัก 2 ด้าน ประกอบไปด้วย 1. ข้อมูล และ 2. บุคลากรผู้เชี่ยวชาญ จึงจะสามารถขับเคลื่อนเทคโนโลยี AI ให้เกิดผลลัพธ์ได้ดีที่สุด Big Data และ AI คือการทำงานร่วมกันระหว่างระบบซอฟต์แวร์ ข้อมูล และอัลกอริทึม โดยซอฟต์แวร์จะทำหน้าที่ในการรวบรวม จัดเก็บ วิเคราะห์และแสดงผลข้อมูล ซึ่งจะต้องใช้ข้อมูลที่มีคุณภาพในการขับเคลื่อน เพื่อให้ได้ผลลัพธ์ที่ถูกต้องและแม่นยำมากที่สุด ประกอบกับอัลกอริทึมที่ช่วยให้การวิเคราะห์ข้อมูลของ AI เป็นไปอย่างชาญฉลาดมากขึ้น อย่าง Machine learning, Deep learning หรือ Natural language processing และอื่น ๆ รวมถึงเป็นหน้าที่ของบุคลากรผู้เชี่ยวชาญ ไม่ว่าจะเป็นนักวิทยาศาสตร์ข้อมูล ฝ่าย IT และ User ที่จะต้องเลือกใช้ซอฟต์แวร์หรือแพลตฟอร์มที่มีประสิทธิภาพและคุ้มค่ากับการลงทุน พร้อมทั้งนักวิทยาศาสตร์ข้อมูลและ User ต้องมีการวางแผนร่วมกันถึงผลลัพธ์ที่ต้องการจากข้อมูล เพื่อให้นักวิทยาศาสตร์ข้อมูลสามารถสร้างโมเดลให้ตอบโจทย์วัตถุประสงค์ทางธุรกิจ

 

ขอบคุณข้อมูลอ้างอิงจาก
https://www.depa.or.th/storage/app/media/file/Second%20Deliverable%20RevVer%20TH%20V12%20140819%20FIN.pdf

Categories
Share Knowledge

5 เหตุผล ที่องค์กรต้องทำระบบ Cybersecurity

       ‘ภัยไซเบอร์’ ความน่ากลัวที่มาพร้อมกับการพัฒนาของเทคโนโลยีในโลกดิจิทัลที่ทุกองค์กรไม่อาจมองข้ามได้ การเตรียมพร้อมรับมืออย่างรัดกุม จึงเป็นหนทางในการป้องกันความเสียหายที่ดีที่สุด

       Blendata สรุป 5 เหตุผลที่องค์กรต้องทำระบบ Cybersecurity ซึ่งแม้จะไม่ได้เห็นผลลัพธ์เป็นมูลค่า แต่ก็นับว่าเป็นการลงทุนที่สำคัญและคุ้มค่ามากที่สุด เพื่อป้องกันก่อนที่จะเกิดความเสียหายทั้งในด้านข้อมูลส่วนบุคคล ข้อมูลธุรกิจ สูญเสียค่าใช้จ่ายมหาศาลจากการโจมตี รวมถึงความเสียหายทางด้านภาพลักษณ์ขององค์กร

       1.  เพื่อปกป้องข้อมูลขององค์กรและข้อมูลส่วนบุคคลไม่ให้ถูกนำไปใช้ในทางทุจริต
       การสร้างระบบ Cybersecurity ที่รัดกุมและครอบคลุมตั้งแต่การป้องกัน ไปจนถึงการวางแผนระยะยาว คือส่วนสำคัญที่จะช่วยให้องค์กรสามารถสะกัดกั้นการโจมตีจากแฮกเกอร์ก่อนที่จะเข้ามาขโมยข้อมูลและนำไปใช้ในทางทุจริต ไม่ว่าจะเป็นการเข้าระบบเพื่อโจมตีให้ข้อมูลเสียหาย การขโมยข้อมูลลูกค้าไปขายหรือใช้ในการหลอกลวงเพื่อสร้างความเสียหายต่อบุคคล การนำข้อมูลไปใช้ปลอมแปลงเพื่อการทำธุรกรรม รวมทั้งการโจรกรรมข้อมูลเพื่อเรียกค่าไถ่ (Ransomware) เป็นต้น ซึ่งองค์กรควรมีการวางแนวทางและเตรียมความพร้อมทั้งในด้านเทคโนโลยี นโยบายขององค์กร และพนักงานในองค์กร เพื่อให้ระบบ Cybersecurity ทำงานได้อย่างมีประสิทธิภาพสูงสุด

       2.  เพื่อป้องกันไม่ให้เกิดความเสียหาย ทั้งในด้านค่าใช้จ่ายและชื่อเสียงขององค์กร.      
หากองค์กรถูกโจมตีทางไซเบอร์ แน่นอนว่าสิ่งที่ตามมานั้น คือความเสียหายทางด้านค่าใช้จ่ายที่อาจมีมูลค่ามหาศาล อย่างเช่น การโจรกรรมข้อมูลเพื่อเรียกค่าไถ่ด้วยวิธีการแอบลักลอบขนข้อมูลออกไปและติดตั้งมัลแวร์เพื่อเข้ารหัสข้อมูลไม่ให้เจ้าของข้อมูลสามารถใช้งานได้หากไม่ยอมจ่ายเงิน ที่เรียกว่า Ransomware หรืออาจเกิดค่าใช้จ่ายในการกู้คืนข้อมูลที่สูญหายไป รวมไปถึงความเสียหายในด้านชื่อเสียงขององค์กร ที่ประเมินค่าเป็นตัวเลขชัดเจนไม่ได้ แต่เรียกได้ว่าเป็นความเสียหายที่รุนแรงไม่แพ้กัน ซึ่งส่งผลให้องค์กรถูกมองในทางลบทั้งต่อผู้ลงทุน ลูกค้า รวมถึงพนักงานในองค์กรเอง การทำระบบ Cybersecurity จึงเป็นแนวทางสำคัญที่จะสามารถป้องกันไม่ให้เกิดความเสียหายเหล่านี้ได้

       3.  เพื่ออุดช่องโห่วการป้องกันด้วยระบบสารสนเทศขั้นพื้นฐานรูปแบบเดิม ๆ ที่ไม่เพียงพอในการป้องกันภัยไซเบอร์สมัยใหม่.      
มาตรการทางสารสนเทศ (IT Policy) คือมาตรฐานในการป้องกันภัยคุกคามทางไซเบอร์ ซึ่งถือเป็นเกราะป้องกันภัยขององค์กรที่มีประสิทธิภาพและประสบความสำเร็จมาโดยตลอด แต่ปัจจุบันภัยคุกคามทางไซเบอร์มีการพัฒนารูปแบบการโจมตีที่มีความหลากหลายและซับซ้อนมากขึ้น ทำให้การป้องกันเพียงระบบสารสนเทศขั้นพื้นฐาน (Infrastructure Protection) เช่น การติดตั้ง Firewall, การแยก Zone ของระบบเครือข่าย อาจดีไม่เพียงพอสำหรับโลกในยุคปัจจุบันและเป็นช่องโหว่ให้เกิดการโจมตีได้ ซึ่งองค์กรควรวางระบบป้องกันที่ครอบคลุมมากขึ้น ตั้งแต่ระบบตรวจจับมัลแวร์หรือไวรัสที่ครอบคลุมทั้งระบบขององค์กร เช่น Antivirus, EDR (Endpoint Detection and Response) ระบบรวบรวมข้อมูลบันทึกและแจ้งเตือนจากอุปกรณ์ในองค์กรเพื่อการป้องกันและแจ้งเตือนที่ดียิ่งขึ้น เช่น SIEM (Security incident and event management)


       4.  เพื่อสร้างความเชื่อมั่นให้กับลูกค้าและพันธมิตรที่ร่วมงานกับองค์กร.      
สถิติการเกิดภัยคุกคามทางไซเบอร์ที่ค่อนข้างสูงทั้งในประเทศไทยและทั่วโลก ทำให้องค์กร หน่วยงาน รวมถึงประชาชนเอง ต่างเกิดความกังวลและเกิดคำถามว่าข้อมูลที่หมุนเวียนอยู่ในโลกดิจิทัลนั้นถูกปกป้องอย่างดีแล้วหรือยัง ดังนั้นองค์กรและธุรกิจจึงต้องเร่งสร้างความเชื่อมั่นด้านความปลอดภัยในข้อมูลให้ได้มากที่สุด ผ่านการวางระบบ Cybersecurity ที่ชัดเจนและได้ประสิทธิภาพ เพื่อเป็นการสร้างความมั่นใจให้กับพันธมิตรทางธุรกิจและลูกค้าผู้ใช้บริการที่ร่วมเดินทางไปพร้อมกับองค์กร

       5.  ปฏิบัติตามพรบ.คุ้มครองข้อมูลส่วนบุคคล (PDPA).      
พระราชบัญญัติคุ้มครองข้อมูลส่วนบุคคล พ.ศ.2562 หรือ PDPA คือข้อสำคัญที่ทำให้องค์กรต้องวางระบบความปลอดภัยในข้อมูล เพื่อดูแลและปกป้องข้อมูลของลูกค้า ข้อมูลผู้ใช้งาน หรือข้อมูลพนักงานในองค์กรให้ได้ประสิทธิภาพและปลอดภัยที่สุด เพราะถ้าหากองค์กรหรือหน่วยงานใดไม่ปฏิบัติตามจะทำให้เกิดบทลงโทษกฎหมาย ซึ่งมีทั้งโทษทางแพ่ง โทษทางอาญา และโทษทางปกครอง จึงเป็นเหตุผลให้องค์กรทั้งภาครัฐและเอกชน ต้องตระหนักและเพิ่มมาตรการการรักษาข้อมูล เพื่อป้องกันความเสียหายทั้งต่อบุคคล องค์กร และความเสียหายทางด้านโทษทางกฏหมาย

Categories
Share Knowledge

Blendata เสริมแกร่งการป้องกันภัยไซเบอร์ให้กับ G-Able ด้วย Big Data บนแพลตฟอร์ม Blendata Enterprise

       Blendata นำเทคโนโลยี Big Data ช่วยเสริมระบบ Cybersecurity พร้อมเพิ่มจุดแข็งให้กับ Holistic G-Cyber Solution ของกลุ่มจีเอเบิล ด้วยความสามารถของ Blendata Enterprise แพลตฟอร์ม ยกระดับเกราะป้องกันระบบความปลอดภัยทางไซเบอร์ใน 4 ด้าน ให้กับองค์กรและธุรกิจ พบภัยทางไซเบอร์มีความซับซ้อนและแยบยลมากขึ้น ส่งผลให้ระบบป้องกันแบบเดิมไม่เพียงพอในการรับมือ ชี้เทคโนโลยี Big Data จะเป็นส่วนสำคัญในการยกระดับระบบ Cybersecurity ขององค์กรให้แข็งแกร่งขึ้น การนำข้อมูลมหาศาลมาจัดเก็บและประมวลผลได้อย่างมีประสิทธิภาพทำให้องค์กรสามารถเตรียมพร้อม ป้องกัน ตรวจพิสูจน์หลักฐาน (Forensic) แก้ไขปัญหา รวมถึงสามารถนำข้อมูลพฤติกรรมและความผิดปกติที่ตรวจสอบพบ มาใช้วางแนวทางในการป้องกันภัยไซเบอร์ได้ทันท่วงที

       ดร.ชัยยุทธ ชุณหะชา ประธานเจ้าหน้าที่บริหาร กลุ่มบริษัทจีเอเบิล เปิดเผยว่า การก้าวเข้าสู่โลกดิจิทัลอย่างรวดเร็วของทั้งภาครัฐ ภาคธุรกิจ และประชาชน โดยมีโควิด19 เป็นปัจจัยเร่งทำให้ทุกภาคส่วนหันมาใช้เทคโนโลยีช่วยเพิ่มประสิทธิภาพการทำงานขององค์กร และเพิ่มความสะดวกให้กับการใช้ชีวิตในยุคดิจิทัลนี้ ซึ่งรวมถึงการใช้สกุลเงินที่ไม่สามารถติดตามธุรกรรมได้ อย่าง Cryptocurrency และบางองค์กรอาจขาดความรัดกุมด้านความปลอดภัยในข้อมูลบนระบบดิจิทัล ซึ่งทั้งหมดนี้นับเป็นปัจจัยเสี่ยงก่อให้เกิดภัยคุกคามทางไซเบอร์ได้ จากผลสำรวจของ Kaspersky ในปี 2021 พบว่าประเทศไทยมีสถิติถูกโจมตีทางไซเบอร์มากเป็นอันดับ 2 ของอาเซียน ซึ่งนับเป็นภัยที่องค์กรไม่สามารถหลีกเลี่ยงได้ในยุคที่ดิจิทัลเติบโตอย่างก้าวกระโดดนี้ ดังนั้นการวางแนวทางการป้องกันและเตรียมความพร้อมทั้งในด้านเทคโนโลยี นโยบายขององค์กร และพนักงานในองค์กร คือสิ่งสำคัญที่ช่วยลดความเสียหาย ทั้งในด้านค่าใช้จ่าย การเรียกค่าไถ่จาก Ransomware หรือค่าใช้จ่ายในการกู้คืนข้อมูล และโดยเฉพาะอย่างยิ่งความเสียหายด้านภาพลักษณ์ และความน่าเชื่อถือขององค์กร 

        นายณัฐนภัส รชตะวิวรรธน์ ประธานเจ้าหน้าที่บริหารและผู้ร่วมก่อตั้ง บริษัท เบลนเดต้า จำกัด กล่าวเสริมว่า เนื่องจากภัยคุกคามในปัจจุบันที่มีการพัฒนาอย่างรวดเร็ว มีความซับซ้อน ทั้งในด้านรูปแบบการโจมตี กลุ่มบุคคลที่ทำการโจมตี ไปจนถึงระบบและสภาพแวดล้อมที่เกี่ยวข้อง ส่งผลให้การตรวจจับด้วยระบบแบบเดิม ๆ เช่น Firewall หรือ Antivirus อาจไม่เพียงพอในการรับมืออีกต่อไป อีกทั้งองค์กรขนาดใหญ่มักจะมีระบบเทคโนโลยีสารสนเทศหลังบ้านที่มีความซับซ้อนสูง มีความหลากหลายทั้งในส่วนของเครือข่าย อุปกรณ์ทางด้านซีเคียวริตี้ แอปพลิเคชัน รวมถึงสิ่งแวดล้อมต่าง ๆ ที่ปัจจุบันทำงานอยู่ทั้งบนระบบคลาวด์ที่หลากหลาย จำพวก Multi/Hybrid Cloud ดังนั้นการเข้าไปช่วยตรวจสอบ รวมถึงการเสริมประสิทธิภาพทางด้านไซเบอร์ ตั้งแต่ขั้นตอนการนำข้อมูลจากหลากหลายแหล่งและหลายรูปแบบ มาค้นหาและประมวลผลในการตรวจสอบปัญหาและสาเหตุนั้น มักจะยุ่งยากและมีความท้าทายอย่างมาก

       ด้วยเหตุนี้ Blendata ได้นำแพลตฟอร์ม Blendata Enterprise เข้าไปเป็นตัวช่วยสำคัญด้านความปลอดภัยทางไซเบอร์ให้กับกลุ่มบริษัทจีเอเบิล (G-Able) ด้วยแพลตฟอร์มที่มาพร้อมความสามารถ ที่ตอบโจทย์การยกระดับระบบ Cybersecurity ขององค์กร ใน 4 ด้าน ช่วยเก็บข้อมูลพฤติกรรมและเหตุการณ์ของอุปกรณ์ทั้งหมดทุกชนิดในองค์กร ให้สามารถค้นหา ตรวจสอบ และแจ้งเตือนภัยคุกคามได้รวดเร็วและแม่นยำยิ่งขึ้น ผสานกับเทคนิคการประมวลผลข้อมูลขั้นสูงอย่างปัญญาประดิษฐ์ (AI : Artificial Intelligence) และ Machine Learning (AI/ML) เพื่อเพิ่มประสิทธิภาพการตรวจจับพฤติกรรมหรือเหตุการณ์ที่ผิดปกติได้อย่างรวดเร็วรัดกุมมากที่สุด และยังมีการวางแผนพัฒนารูปแบบการตรวจจับและป้องกันภัยคุกคามทางไซเบอร์อย่างต่อเนื่องเพื่อให้สามารถรับมือกับภัยคุกคามที่ซับซ้อนได้ รวมถึงเป็นการเสริมจุดอ่อนขององค์กรทั่วไปที่ไม่มีการจัดเก็บข้อมูลย้อนหลัง ทำให้ยากต่อการตามรอยตรวจจับพฤติกรรมของแฮกเกอร์

 

       ทั้งนี้ แพลตฟอร์ม Blendata Enterprise ประกอบไปด้วยความสามารถในการยกระดับระบบ Cybersecurity ขององค์กรใน 4 ด้าน ดังนี้

  • Cybersecurity Data-Lake จัดเก็บข้อมูลที่เกี่ยวข้องกับไซเบอร์ทั้งหมด ไม่ว่าจะเป็นข้อมูลบันทึกของอุปกรณ์ (Log) ข้อมูลจากแอปพลิเคชัน ข้อมูลจากระบบคลาวด์ขององค์กร รวมไปถึงข้อมูลทางด้านภัยคุกคามจากภายนอก (Threat Intel) ไว้ในที่เดียวกัน โดยการจัดเก็บข้อมูลเป็นระยะเวลายาวนาน เพื่อให้พร้อมสำหรับการค้นหา และตรวจสอบได้อย่างรวดเร็วในหลักวินาที
  • Centralized operational dashboard รวบรวมข้อมูลจากทุกอุปกรณ์ เพื่อสร้าง Dashboard แบบรวมศูนย์ เพื่อสามารถตรวจสอบข้อมูลได้อย่างรวดเร็วและแม่นยำ
  • Rule-based detection & Alert Normalization แจ้งเตือนจากหลากหลายเหตุการณ์ทางไซเบอร์ที่เกิดขึ้น รวมถึงลดการแจ้งเตือนที่ไม่จำเป็นออกไป เพื่อคัดกรองเฉพาะการแจ้งเตือนที่สำคัญ
  • Advanced security analytics การใช้เทคโนโลยี AI/ML บนข้อมูลขนาดใหญ่ (Big data) เพื่อตรวจจับ ระบุพฤติกรรม เหตุการณ์ หรือความผิดปกติใด ๆ ที่เกิดมาจากการโจมตีทางไซเบอร์ อาทิเช่นการวิเคราะห์พฤติกรรมของผู้ใช้งานที่ผิดปกติ (User behavior analysis) การขนข้อมูลออกไปโดยมิชอบ (Data exfiltration) เป็นต้น

       “Blendata ได้พัฒนาแพลตฟอร์ม Big Data อัจฉริยะ Blendata Enterprise ที่สามารถรองรับการนำข้อมูลหลากหลายชนิด ไม่ว่าจะเป็นข้อมูลบันทึกอุปกรณ์ ข้อมูลระบบสารสนเทศขั้นพื้นฐาน (Infrastructure) ข้อมูลจากแอปพลิเคชัน มาประมวลผลได้อย่างรวดเร็วบนเทคโนโลยี Big Data ในลักษณะ No-Code ทำให้ Blendata สามารถเข้าไปช่วยยกระดับและเพิ่มศักยภาพให้กับระบบความปลอดภัยทางไซเบอร์ของ G-Able รวมทั้งองค์กรต่าง ๆ ทั้งในด้านการตรวจจับภัยคุกคามสมัยใหม่อย่างรวดเร็วและมีประสิทธิภาพ เสริมเกราะป้องกันให้กับระบบสารสนเทศขององค์กร รวมถึงเป็นการวางรากฐานที่สำคัญสำหรับกลไกป้องกันภัยคุกคามทางไซเบอร์ในอนาคต

Categories
Share Knowledge

รู้ทัน ‘ภัยไซเบอร์’ ด้านมืดโลกดิจิทัลกับรูปแบบการโจมตีที่เปลี่ยนไป

Hacker ที่เปลี่ยนรูปแบบไปจากเดิม

       อาชญากรไซเบอร์หรือที่คุ้นเคยกันกับคำว่า Hacker นั้น มักเป็นผู้ที่อยู่เบื้องหลังการโจมตีหรือการโจรกรรมข้อมูลทางไซเบอร์ ซึ่งเป็นบุคคลนานาชาติที่ล้วนมีความรู้ ความสามารถ จึงทำให้การป้องกันภัยไซเบอร์กลายเป็นเรื่องน่าปวดหัวอยู่บ่อยครั้ง ซึ่งหากพูดถึงเรื่องนี้ในช่วง 3 ถึง 5 ปีก่อน หลายองค์กรในไทยอาจมองเป็นเรื่องไกลตัว เพราะเป้าโจมตีของกลุ่ม Hacker อาจเป็นการสร้างผลกระทบต่อสาธารณะชนหรือกับบริษัทใหญ่ ๆ ในต่างประเทศมากกว่ากลุ่มบริษัทของไทย การถูกโจมตีทางไซเบอร์ในไทยจึงมีเหตุการณ์เกิดขึ้นเพียงประปราย

       แต่ในปัจจุบัน นอกจากที่ทุกคนต่างปรับตัวสู่ยุคดิจิทัลแล้ว การเข้าถึงเครื่องมือ ความรู้ต่าง ๆ ก็สามารถทำได้ง่ายขึ้น ทำให้ Hacker มีจำนวนมากขึ้นและเก่งขึ้นเช่นเดียวกัน นอกจากนี้ จากเดิมที่การโจรกรรมข้อมูลไม่สามารถทำเงินได้ง่ายนัก เนื่องจากการโอนเงินผ่านธนาคารนั้นสามารถตรวจสอบไปยังต้นทางและปลายทางได้ แต่ในปัจจุบันได้มีการใช้สกุลเงินที่ไม่สามารถติดตามธุรกรรมได้ง่าย ๆ (Untraceable) อย่าง Cryptocurrency ทำให้สถิติการโจรกรรมข้อมูลเพื่อเรียกค่าไถ่ด้วยวิธีการแอบลักลอบขนข้อมูลออกไป และติดตั้งมัลแวร์​เพื่อเข้ารหัสข้อมูลไม่ให้เจ้าของข้อมูลสามารถใช้งานได้หากไม่ยอมจ่ายเงิน หรือที่เรียกว่า Ransomware เพิ่มสูงขึ้นอย่างมากในช่วงปีที่ผ่านมา อีกทั้งยังมีการพัฒนา Ransomware-as-a-Service (RaaS) ที่ให้บริการทั้งในส่วนของเครื่องมือ และบริการช่วยเหลือการใช้งาน รวมถึงมีโมเดลการบริการที่ยืดหยุ่น ทำให้การที่จะเป็นอาชญากรไซเบอร์นั้นยิ่งง่ายขึ้นไปอีก ซึ่งเพิ่มความน่ากังวลให้กับทั่วโลก และตอกย้ำให้เห็นว่าการโจมตีองค์กรจากผู้ไม่หวังดี อาจไม่ใช่เรื่องไกลตัวอีกต่อไป

วิธีการโจมตีที่ซับซ้อนและแนบเนียนยิ่งขึ้น

       มาตรการทางสารสนเทศ (IT Policy) คือมาตรฐานในการป้องกันภัยคุกคามทางไซเบอร์ ซึ่งถือเป็นเกราะป้องกันภัยขององค์กรที่มีประสิทธิภาพและประสบความสำเร็จมาโดยตลอด แต่ในปัจจุบันภัยคุกคามทางไซเบอร์ได้มีการพัฒนารูปแบบการโจมตีที่มีความซับซ้อนที่มากขึ้น ไม่ว่าจะเป็นข้อมูลจากทฤษฎี Cyber Kill Chain ของ Lockheed martin หรือองค์กรอิสระอย่าง MITRE ATT&CK ที่ได้อธิบายขั้นตอนการโจมตีระบบ IT ของ Hacker ไว้อย่างน่าสนใจ โดยสังเขปแล้ว Hacker จะแฝงตัวอยู่ในระบบเป็นระยะเวลาหนึ่ง เพื่อให้การโจมตีเป็นไปอย่างแนบเนียนและมีความผิดปกติน้อยที่สุด ซึ่งสามารถสรุปเนื้อหาสำคัญได้ ดังนี้

  1. การตรวจตราดูว่าระบบเป็นอย่างไร มีช่องโหว่อะไรบ้าง เพื่อเตรียมการโจมตีที่ถูกจุด
  2. การเข้าสู่ระบบ ผ่านช่องโหว่ที่ยังไม่ได้รับการแก้ไข หรือ Policy ที่หละหลวม รวมถึงการได้รหัสผู้ใช้งานจากอีเมลล์ปลอม หรือแม้กระทั่งการได้รับความร่วมมือจากคนภายใน
  3. ยกระดับสิทธิของตนเองให้อยู่ระดับที่เข้าถึงได้ทุกระบบภายในองค์กรและหลีกเลี่ยงระบบตรวจจับ Hacker เช่น พยายามเลียนแบบพฤติกรรมของผู้ใช้งานทั่วไป หรือแอบปิดการทำงานของระบบ Antivirus
  4. แฝงตัวอยู่ในเครื่องคอมพิวเตอร์หรือเซิร์ฟเวอร์หลายเครื่องก่อนจะเจอเครื่องเป้าหมายที่เก็บข้อมูลสำคัญ
  5. โจมตี โดยการติดตั้งไวรัส มัลแวร์ หรือการขโมยข้อมูลที่สำคัญเพื่อเรียกค่าไถ่
  6. ขนข้อมูลออกไป หากเป็นการขโมยข้อมูลเพื่อเรียกค่าไถ่แล้ว Hacker มักจะทำการแอบขนข้อมูลออกไปด้วยหลากหลายเทคนิค เพื่อไม่ให้ตรวจจับได้ เช่น การลอบขนข้อมูลด้วย User ที่ได้รับการยกเว้น Policy ในการขนข้อมูลออก เป็นต้น

ระบบการป้องกันที่ต้องมีการยกระดับ

       จากรูปแบบการโจมตีที่มีความซับซ้อนมากขึ้น ทำให้การป้องกันเดิมที่มีอยู่อาจไม่สามารถป้องกันได้เสมอไป การป้องกันเพียงระบบสารสนเทศขั้นพื้นฐาน (Infrastructure Protection) เช่น การติดตั้ง Firewall หรือการแยก Zone ของระบบเครือข่าย อาจดีไม่เพียงพอสำหรับโลกในยุคปัจจุบัน ซึ่งอาจต้องการระบบป้องกันที่มากขึ้นตั้งแต่ระบบตรวจจับมัลแวร์หรือไวรัสที่ครอบคลุมทั้งระบบขององค์กร เช่น Antivirus, EDR (Endpoint Detection and Response) ระบบรวบรวมข้อมูลบันทึกและแจ้งเตือนจากอุปกรณ์ในองค์กรเพื่อการป้องกันและแจ้งเตือนที่ดียิ่งขึ้น เช่น SIEM (Security Incident and Event Management)

       นอกจากนี้การประยุกต์ใช้เทคโนโลยี Big Data ถือเป็นกลยุทธ์สำคัญที่จะช่วยเพิ่มความปลอดภัยทางไซเบอร์ให้กับองค์กรได้อย่างมีประสิทธิภาพ โดยการนำข้อมูลที่เกี่ยวข้องทางด้านไซเบอร์ทั้งหมด ไม่ว่าจะเป็นข้อมูลบันทึกของอุปกรณ์ (Log) ข้อมูลจากแอพพลิเคชัน ข้อมูลจากระบบคลาวด์ขององค์กร รวมไปถึงข้อมูลทางด้านภัยคุกคามจากภายนอก (Threat intel) มาจัดเก็บและประมวลผล เพื่อทำการตรวจพิสูจน์หลักฐาน (Forensic) ทางดิจิทัลที่ครอบคลุมในทุกส่วนขององค์กร ซึ่งกล่าวได้ว่าเป็นการปลดล็อกขีดจำกัดของเครื่องมือเดิมที่รองรับเฉพาะอุปกรณ์ทางด้านไซเบอร์ที่รู้จักเท่านั้น ซึ่ง Big Data สามารถรองรับข้อมูลได้หลากหลายชนิดที่มีขนาดใหญ่ รวมไปถึงมีการเปลี่ยนแปลงของข้อมูลที่ค่อนข้างเร็ว อีกทั้งยังสามารถนำข้อมูล พฤติกรรม ความผิดปกติที่ตรวจสอบพบมาวางแนวทางในการป้องกันภัยไซเบอร์ในอนาคตได้อีกด้วย

อ่านข้อมูลเกี่ยวกับ Cybersecurity Customer Success by Blendata คลิก > https://blendata.co/th/customers/case-3-cybersecurity-data-lake/

Categories
Share Knowledge

เปิด 5 เมกะเทรนด์ ปี 2565 Big Data มาแน่ แนะเร่งปรับใช้ยกระดับธุรกิจ

       Big Data เปรียบเสมือนด่านสำคัญของการบริหารจัดการและการตัดสินใจเพื่อวางกลยุทธ์ นำธุรกิจให้ทรงประสิทธิภาพ พร้อมแข่งขันในยุคดิจิทัล โดยโรคระบาดโควิด-19 เป็นปัจจัยเร่งให้ทุกคนคุ้นชินกับการใช้เทคโนโลยีและเชื่อมโลกออนไลน์เข้ากับออฟไลน์แบบไร้รอยต่อมากยิ่งขึ้น ส่งผลให้มีข้อมูลจำนวนมหาศาลเกิดขึ้นในทุกวินาที ในขณะที่ธุรกิจมีความจำเป็นต้องเร่งปรับใช้ข้อมูลที่รวดเร็วยิ่งขึ้น เพื่อการเป็นผู้นำในการแข่งขัน ซึ่งหากช้ากว่าผู้เล่นรายอื่น ก็อาจเสียโอกาสทางธุรกิจและอาจถูกดิสรัปชันไปในที่สุด

       ธุรกิจต้องการความเร็วในการนำข้อมูลไปปรับใช้เพื่อครองใจลูกค้า ซึ่งข้อมูลมหาศาล หรือ Big Data เป็นหัวใจสำคัญที่ช่วยให้ธุรกิจเข้าใจพฤติกรรมเชิงลึกของผู้บริโภค สามารถคาดการณ์ปัญหาที่อาจจะเกิดขึ้นและแก้ไขได้ทันท่วงที สามารถพัฒนาผลิตภัณฑ์และบริการ รวมทั้งเพิ่มประสบการณ์ที่ดีจากการให้บริการที่ตรงกับความต้องการของลูกค้า รวมทั้งเพิ่มศักยภาพของระบบภายในองค์กร ซึ่งถือเป็นความท้าทายของภาคธุรกิจที่จะต้องพัฒนาความสามารถในการบริหารจัดการ Big Data จากทุกระบบขององค์กรให้มีความรวดเร็ว แม่นยำ และมีประสิทธิภาพ เพื่อก้าวขึ้นเป็นผู้นำในตลาดและสร้างความสามารถในการแข่งขันที่ยั่งยืนให้กับธุรกิจ สอดคล้องกับข้อมูลจาก Forrester Research พบว่าธุรกิจที่ขับเคลื่อนด้วยข้อมูลมีแนวโน้มที่จะบรรลุเป้าหมายด้านรายได้มากกว่าบริษัทที่ไม่เน้นการใช้ข้อมูลถึง 58%

       Blendata เปิด 5 เมกะเทรนด์ของ Big Data ในปี 2565 ที่จะเข้ามามีบทบาทสำคัญในการยกระดับกลยุทธ์ต่าง ๆ ขององค์กร ดังนี้

       1. Real-Time Data การวิเคราะห์ข้อมูลและใช้ข้อมูลแบบเรียลไทม์ จะมีความสำคัญมากขึ้น

       จากการแข่งขันทางธุรกิจที่สูงขึ้น ทุกวินาทีจึงมีความสำคัญ ความล่าช้านำมาซึ่งการเสียโอกาสทางธุรกิจไปทันที จากเทคโนโลยีเดิมที่อาจใช้เวลาจัดเก็บและรอประมวลผลวันต่อวัน องค์กรจึงต้องมองหาเทคโนโลยีที่สามารถประมวลผลแบบ Real-Time เพื่อเพิ่มความเร็วในการนำข้อมูลไปปรับใช้สำหรับกลยุทธ์ทางธุรกิจต่าง ๆ และสอดรับกับพฤติกรรมผู้บริโภคยุคดิจิทัล การทำ Real-Time Analytics วิเคราะห์และประมวลผล Big Data แบบ Real-Time ช่วยให้สามารถตัดสินใจ แก้ไขปัญหา วางแผน ปรับเปลี่ยนกลยุทธ์ คาดการณ์แนวโน้มต่าง ๆ ได้อย่างรวดเร็วและทันท่วงที หรือในด้านการนำ Real-Time Data ไปปรับใช้เพื่อทำกุลยุทธ์การตลาด เช่น การทำ Personalized Recommendation และ Next Best Action Marketing โดยใช้ Big Data มาช่วยวิเคราะห์ความต้องการและพฤติกรรมเชิงลึกของลูกค้า เพื่อแนะนำสินค้า บริการ หรือโปรโมชันให้ตรงกับความสนใจของลูกค้าแบบเจาะจงรายบุคคุล รวดเร็ว ทันเทรนด์ในช่วงเวลาและช่องทางที่เหมาะสม ซึ่งการที่สามารถวิเคราะห์และปรับใช้ Big Data ได้แบบ Real-Time จะช่วยส่งเสริมการขายให้มีประสิทธิภาพและเพิ่มโอกาสในการซื้อมากยิ่งขึ้น

       2. การนำ Big Data มาเสริมเฟรมเวิร์กในระบบ Cybersecurity & Risk

       ธุรกิจและผู้คนต้องพึ่งพาเทคโนโลยีดิจิทัลเพื่อเพิ่มศักยภาพทางธุรกิจและอำนวยความสะดวกให้กับชีวิตมากขึ้น การเก็บบันทึก Data ที่เกี่ยวข้องกับข้อมูลส่วนบุคคลจำนวนมหาศาล เป็นการเพิ่มความเสี่ยงในการเกิดภัยไซเบอร์ เช่น การโจรกรรมข้อมูลเพื่อเรียกค่าไถ่หรือ Ransomware ซึ่งนับวันก็ยิ่งทวีความรุนแรง ส่งผลเสียหายต่อข้อมูลส่วนบุคคลและข้อมูลธุรกิจเป็นมูลค่ามหาศาล อีกทั้งยังส่งผลเชิงลบกับภาพลักษณ์และความน่าเชื่อถือขององค์กร

       การมีระบบ Security Analytics คือการตั้งรับการโจมตีทางไซเบอร์ทั้งเชิงรับและเชิงรุก โดยการรวบรวม Big Data ที่เกี่ยวข้องกับ Cybersecurity ไม่ว่าจะเป็นแอพพลิเคชันบนคลาวด์ หรือข้อมูลบันทึก (Log) ของอุปกรณ์โครงข่าย เพื่อค้นหาสาเหตุ ตรวจสอบเหตุการณ์ย้อนหลังจากข้อมูลที่ถูกเก็บไว้เป็นระยะเวลานาน เพื่อใช้แก้ไขปัญหาหรือวางแนวทางป้องกัน ผนวกกับเทคโนโลยี Artificial Intelligence และ Machine Learning หรือ AI/ML เพื่อเสริมเฟรมเวิร์กทาง Cybersecurity ให้สามารถตรวจจับความผิดปกติได้อย่างแม่นยำยิ่งขึ้นจากฐานข้อมูลพฤติกรรมของคนและอุปกรณ์ขนาดใหญ่ที่จัดเก็บไว้ เช่น การคาดการณ์ได้ว่าข้อมูล Transaction ใดอาจกำลังก่อเหตุ Ransomware รวมถึงสามารถแจ้งเตือนเมื่อเกิดเหตุผิดปกติได้ทันที การใช้ Big Data ยังครอบคลุมถึงการตรวจสอบการทุจริต หรือ Fraud Analytics ทั้งภายในและภายนอกองค์กร โดยรวบรวมข้อมูลวิเคราะห์พฤติกรรมผิดปกติที่เข้าข่ายการทุจริต เช่น บัญชีธนาคารลูกค้าถูกโอนเงินออกจำนวนมหาศาล หรือมีหลายบัญชีถูกโอนเงินออกพร้อมกัน ซึ่งการตรวจสอบการทุจริตได้อย่างรวดเร็วช่วยจะสามารถลดความเสียหายที่อาจเกิดขึ้นได้

       3. การใช้ Big Data เพิ่มประสิทธิภาพกลยุทธ์ Omni-Channel Customer Experience

       การแข่งขันทางธุรกิจในปัจจุบัน เป็นยุคที่ผู้บริโภคมีตัวเลือกมากขึ้น การสร้างประสบการณ์ที่ดีให้กับลูกค้า จึงเป็นหัวใจสำคัญของการทำธุรกิจ โดยองค์กรจะต้องพัฒนาการสร้างประสบการณ์ของลูกค้า (Customer Experience) ให้ดีตลอด Customer Life Cycle เพื่อรักษาฐานลูกค้าเก่าและเพิ่มฐานลูกค้าใหม่ ให้ได้รับการบริการแบบ Real-Time ไม่ว่าลูกค้าจะใช้บริการผ่านช่องทางออฟไลน์หรือออนไลน์ ซึ่งทุกช่องทางจะถูกรวมกันเป็นหนึ่งเดียว ตามวิธีคิดของกลยุทธ์ Omni-Channel เพื่อบริการที่ราบรื่นไม่มีสะดุด ทั้งนี้ Big Data ที่รวบรวมจากทุกช่องทาง เช่น ข้อมูลจาก Offline Store ข้อมูลจาก Call Centre ข้อมูลคงคลัง ข้อมูลการขาย จนถึงข้อมูลที่เกิดขึ้นในยุคโควิดอย่างโซเชียลมีเดีย เว็บไซต์ หรือ Online Store ซึ่งข้อมูลทั้งหมดนี้ คือกำลังสำคัญในการเพิ่มประสิทธิภาพกลยุทธ์ Omni-Channel Customer Experience โดยรวมเป็นศูนย์ข้อมูลเพื่อให้เห็นทุกกิจกรรมของลูกค้าในลักษณะ Customer 360 และใช้วิเคราะห์พฤติกรรมเชิงลึกของลูกค้าอย่างละเอียด เพื่อนำมาพัฒนา แก้ไข ปรับปรุง และนำไปต่อยอดในการบริหารการขาย รวมถึงพัฒนาบริการและสินค้าชนิดใหม่

       4. การเปลี่ยนเทคโนโลยีจัดการข้อมูลแบบเก่าเป็น Big Data เพื่อลดค่าใช้จ่ายและเพิ่มศักยภาพให้กับองค์กร

       การจัดการและประมวลผลข้อมูลโดยใช้เทคโนโลยีแบบดั้งเดิม ที่องค์กรอาจมีใช้งานเป็นปกติอยู่แล้ว เช่น การสร้างข้อมูลรายงานการขายประจำวัน การดูรายงานคงคลังประจำเดือนจากระบบฐานข้อมูลปกติ ซึ่งปัจจุบันเมื่อข้อมูลเริ่มมีขนาดใหญ่ และจัดเก็บอยู่ในหลายระบบ จึงทำให้เกิดค่าใช้จ่ายรวมถึงค่าดูแลรักษาระบบจัดการข้อมูลแบบเดิมที่ค่อนข้างสูง เมื่อถึงยุคปัจจุบันที่มีปัจจัยความเสี่ยงภายนอกที่ควบคุมไม่ได้ เช่น โควิด ที่อาจส่งผลกระทบต่อการดำเนินธุรกิจในระยะยาว การลดค่าใช้จ่ายที่ไม่จำเป็นโดยการใช้เทคโนโลยีที่เหมาะสมต่องานมากขึ้น อย่างการเปลี่ยนหรือลดภาระการประมวลผลข้อมูลบนระบบเดิมมาใช้เทคโนโลยี Big Data จึงเป็นกลยุทธ์สำคัญที่องค์กรควรพิจารณา ทั้งนี้ การบริหารข้อมูลในรูปแบบ Big Data ยังช่วยให้องค์กรสามารถใช้ประโยชน์จาก Data ได้อย่างเต็มที่ ทั้งในด้านการเข้าถึงข้อมูล และการประมวลผลข้อมูลได้คราวละมาก ๆ แต่ทำได้รวดเร็ว รวมถึงปลดล็อกขีดจำกัดในการวิเคราะห์ข้อมูลรูปแบบใหม่ ๆ ช่วยให้ธุรกิจสามารถแข่งขันกับตลาด โดยมีต้นทุนทางสารสนเทศโดยรวมที่ต่ำลงอีกด้วย

        5. Data Citizen ใคร ๆ ก็เข้าถึง Data ได้

       ในยุคที่องค์กรต่างปรับตัวสู่การเป็น Data-Driven Organization แต่การเข้าถึง Data ในหลายองค์กรยังถูกจำกัดอยู่แค่ในฝ่าย IT ทีมเทคนิค หรือทีม Data เท่านั้น ซึ่งทำให้องค์กรไม่สามารถผลักดันการทำกลยุทธ์ Data-Driven ให้เกิดกับทุกการทำงานและการตัดสินใจได้ Data Citizen คือคอนเซ็ปต์ที่ทำให้ทุกคนในองค์กรสามารถใช้ Data ในการวิเคราะห์และตัดสินใจได้ ไม่ว่าจะเป็นพนักงานระดับผู้บริหารจนถึงระดับปฏิบัติการ โดยสามารถเข้าถึงข้อมูลได้ตามสิทธิ์การใช้งาน ซึ่งเครื่องมือที่จะสามารถสนับสนุนแนวคิดนี้ให้เป็นจริงได้ ก็คือ Big Data ที่รวบรวมข้อมูลไว้เพื่อให้ทุกคนเข้าถึงและใช้งานข้อมูลได้ง่ายดาย ถึงแม้ไม่มีความรู้ทางด้านเทคนิค

       Big Data คือหนึ่งในจิ๊กซอว์สำคัญของการขับเคลื่อนธุรกิจให้เติบโตได้อย่างยั่งยืนในทุกสถานการณ์ แต่ในหลายองค์กรยังมีข้อจำกัดมากมายในการบริหารจัดการ Big Data ทำให้ต้องมองหาเครื่องมือที่สามารถเข้าไปแก้ไขข้อจำกัดเหล่านั้น Blendata-Enterprise คือ Effortless และ Simplified Big Data Platform ที่ตอบโจทย์ทุกขั้นตอนการจัดการ Big Data ตั้งแต่รวบรวมข้อมูล จนถึงการนำข้อมูลไปใช้ ในแบบ Code-free พร้อมจัดเก็บและประมวลผลข้อมูลขนาดใหญ่แบบ Real-Time ช่วยเพิ่มศักยภาพให้ธุรกิจพร้อมสำหรับทุกการแข่งขันด้วยเวลาที่รวดเร็ว ลดเวลาและลดความซับซ้อนในการเข้าถึงข้อมูล แม้ผู้ใช้งานไม่มีความรู้ด้าน IT หรือ Big Data ช่วยให้องค์กรลดการลงทุนทางด้านบุคลากรเทคนิคเฉพาะด้าน ทรัพยากรคอมพิวเตอร์ ซอฟต์แวร์ ไลเซนส์ และการบำรุงรักษา ด้วยการรวบรวมทุกฟังก์ชันในการจัดการ Big Data ไว้ในแพลตฟอร์มเดียว แบบ All-in-one อีกทั้งยังสามารถนำข้อมูล Big Data ที่มีอยู่ในมือไปต่อยอดเพื่อยกระดับธุรกิจในด้านอื่น ๆ ได้อย่างอิสระและรวดเร็ว

We use cookie to give you the best online experience Please let us know if you agree to all of these cookie.

©2021 Blendata. All right reserved.