Data Science Group משיקה פתרון AI לסינון תוכן פוגעני

הפתרון מאפשר לגופי תוכן לנטר תוכן אינטרנטי באופן אוטומטי ולמנוע פרסום עלבונות, גסויות, אלימות ותוכן ומאיים בזמן אמת בהתבסס על ניתוח סנטימנט ונושאי התגובות

ד״ר גדעון רוזנטל, ממייסדי Data Science Group. צילום: יח״צ, באדיבות החברה

חברת Data Science Group, העוסקת בפיתוח מוצרים, פתרונות ומודלים מבוססי AI לארגוני אנטרפרייז, מכריזה על פתרון חדשני לסינון תוכן פוגעני ברשת בשם Contendoor. הפתרון מאפשר לגופי תוכן לנטר תוכן אינטרנטי באופן אוטומטי ולמנוע פרסום תכנים פוגעניים ובלתי הולמים שעלולים להתפרסם בפלטפורמות שלהם, בהם עלבונות, גסויות, אלימות ותוכן ומאיים שיכול להיות כלול בטקסט, תמונות וסרטוני וידאו.

Contentdoor מזהה תוכן פוגעני בזמן אמת בהתבסס על ניתוח סנטימנט ונושאי התגובות. הפתרון משתמש במודלים חדשניים של למידה עמוקה על מנת לקבוע אם ניתן לאפשר לפרסם את התוכן בפלטפורמה. במקביל הוא מאפשר לגולשים לבחון מחדש את התגובות שלהם לפני הנגשתן ומתריע בפניהם במידה שנמצא בהן תוכן פוגעני שעלול להפסל.

לדברי החברה, הפתרון מספק יתרון משמעותי למפרסמים והמשווקים בפלטפורמות התוכן, שכן הוא יכול להבטיח את אפקטיביות הפרסום באמצעות סינון תוכן בלתי הולם וקידום תוכן בעל עניין למשתמש. הפתרון מאפשר לגופי התוכן לעקוב אחר מילות מפתח בעלות השפעה ולנתח את הסנטימנט והתוכן של התגובות על מנת לקבל תובנות אודות מגמות הגולשים וכך להמליץ על תוכן מותאם אישית.

"השיח התקשורתי משתנה כל העת ומקצין, דבר ששם את גופי התוכן והמפרסמים בעמדה שמחייבת ניהול תוכן מתקדם ואיכותי, שיאפשר הן לגולשים והן למפרסמים ליהנות מתוכן הוגן והולם״, אמר ד"ר גדעון רוזנטל, ראש חטיבת המחקר וממייסדי חברת Data Science Group. ״קיימת חשיבות גבוהה בהבנת תוכן הגולשים, ביקורותיהם ותגובותיהם, ובמינוף המידע היקר הזה לקבלת תובנות שיכולות לקדם את הפלטפורמה והאטרקטיביות שלה עם פרסום הסיפורים המתאימים ביותר".

ניתן להגדיר את רמת הסינון של הפתרון בהתאם לנהלים הנהוגים בכל גוף תוכן, לדרישות הטון המדויקות ולתקנות שהם מחויבים להן. ניתן להפעיל את הפתרון במודל אוטומטי לחלוטין או במודל משולב, בו מועברים תכנים פחות בטוחים להחלטה של צוות אנושי.

אולי יעניין אותך גם