ByteDance, батьківська компанія популярної платформи TikTok, внесла значні зміни у свій підхід до модерації контенту, що призвело до звільнення кількох сотень модераторів у всьому світі. Згідно з відомостями, було ліквідовано близько 500 посад, більшість з яких базувалися в Малайзії. ByteDance має значну робочу силу, що налічує понад 110 000 осіб у всьому світі.
Перехід передбачає зміщення до системи модерації контенту на основі штучного інтелекту. Наразі ШІ обробляє близько 80% завдань модерації, що, за словами компанії, є необхідним для поліпшення їх операційної структури. У прагненні зміцнити ініціативи з довіри та безпеки, ByteDance зобов’язалася інвестувати приблизно 2 млрд доларів у 2024 році.
Ця реструктуризація відбувається на тлі зростаючого регуляторного контролю в регіонах, де спостерігається збільшення шкідливого контенту та дезінформації, що вимагає більш ефективної стратегії модерації. Паралельно конкуренція в соціальних мережах зростає, як видно з нещодавніх проблем, з якими зіткнувся Instagram. Адам Моссері, керівник Instagram, нещодавно обговорював труднощі, з якими стикалася платформа, відзначаючи, що деякі проблеми з обліковими записами користувачів були наслідком людських помилок у модерації.
Він підкреслив, що не всі проблеми виникли внаслідок помилок модераторів, посилаючись на несправний інструмент, який не дозволяв співробітникам мати необхідний контекст під час оцінки контенту. Поки платформи намагаються впоратися зі складнощами модерації контенту, акцент на інтеграції ШІ продовжує зростати, формуючи майбутнє управління соціальними мережами.
Перехід ByteDance до модерації контенту на основі ШІ: можливості та виклики
ByteDance, батьківська компанія TikTok, робить сміливий крок, використовуючи штучний інтелект (ШІ) для своїх процесів модерації контенту. Цей стратегічний перехід, який передбачає звільнення приблизно 500 модераторів контенту, відображає ширший тренд у технологічній індустрії до автоматизації в різних операційних завданнях. Коли ByteDance переходить до ШІ, виникає кілька важливих питань.
Які основні мотивації стоять за переходом ByteDance до модерації контенту на основі ШІ?
Основні мотивації включають необхідність масштабованості та ефективності в управлінні контентом, створеним користувачами, яке значно зросло з ростом бази користувачів TikTok і його дочірніх компаній. Оскільки ШІ зараз обробляє приблизно 80% завдань модерації, ByteDance прагне зменшити людські помилки, підвищити швидкість та реагувати на зростаючі вимоги до моніторингу контенту в реальному часі. Крім того, зобов’язання компанії інвестувати 2 млрд доларів у ініціативи довіри та безпеки у 2024 році підкреслює її зобов’язання покращувати безпеку користувачів і відповідність регуляторним вимогам.
Які ключові виклики стоять перед ByteDance у цьому переході?
Одним з найзначніших викликів є забезпечення точності та ефективності модерації ШІ. Хоча ШІ може ефективно обробляти великі обсяги даних, йому може бути важко зрозуміти контекст і відтінки, які можуть зрозуміти людські модератори. Це обмеження може призвести до помилкової класифікації контенту, що потенційно призведе до невдоволення користувачів або навіть регуляторної реакції. Крім того, триває дискусія про етичні наслідки зменшення людського контролю в модерації контенту, оскільки упередження в алгоритмах ШІ можуть сприяти поширенню шкідливого контенту або несправедливому ставленню до певних груп користувачів.
Чи є якісь суперечки навколо переходу до модерації на основі ШІ?
Так, перехід до модерації на основі ШІ викликав суперечки щодо прозорості та відповідальності. Критики стверджують, що сильна залежність від ШІ може призвести до надмірної цензури або невиконання контекстно чутливих питань. Користувачі часто прагнуть зрозуміти, як приймаються рішення про модерацію, і вимагають відповідальності, коли виникають помилки. Відсутність людського перегляду може погіршити ці занепокоєння, особливо в тих випадках, коли йдеться про чутливі теми. Крім того, звільнення сотень модераторів піднімає питання про практики зайнятості в технологічному секторі та ціну, яку надають людським внескам у процес модерації.
Які переваги та недоліки використання ШІ для модерації контенту?
*Переваги:*
– **Масштабованість**: ШІ може обробляти значно більший обсяг контенту, ніж людські модератори, що полегшує управління великими платформами, такими як TikTok.
– **Швидкість**: Автоматизовані системи можуть швидко позначати або видаляти шкідливий контент, потенційно зменшуючи час експозиції для користувачів.
– **Зменшення витрат**: Зменшуючи кількість людських модераторів, ByteDance може зекономити на операційних витратах у довгостроковій перспективі.
*Недоліки:*
– **Брак контекстуального розуміння**: Системи ШІ можуть невірно інтерпретувати контент, особливо коли йдеться про культурні або контекстуальні нюанси.
– **Алгоритмічна упередженість**: ШІ може сприяти існуючим упередженням, присутнім у даних, що призводить до несправедливого ставлення до певних груп або видів контенту.
– **Втрата робочих місць**: Перехід до автоматизації часто призводить до втрати робочих місць, що викликає етичні занепокоєння щодо переміщення робочої сили.
В підсумку, перехід ByteDance до ШІ для модерації контенту представляє ключовий момент в еволюції управління соціальними мережами, поєднуючи можливості для підвищення ефективності та масштабованості з істотними викликами та етичними аспектами. Поки індустрія адаптується до цих змін, залишається важливим спостереження за тим, як ці події впливають на користувачів та ширшу спільноту.
Для отримання додаткової інформації про поточні події в технологічній індустрії ви можете відвідати ByteDance або стежити за впливом ШІ на платформи соціальних мереж на TikTok.
The source of the article is from the blog reporterosdelsur.com.mx