تیکتاک بهعنوان جدیدترین پلتفرم اجتماعی، قابلیتی ارائه کرده که به کاربران اجازه میدهد میزان محتوای تولیدشده با هوش مصنوعی (AI) را در فید خود کاهش دهند. این پلتفرم یک اسلایدر جدید در بخش Manage Topics اضافه کرده که به کاربران امکان میدهد مشخص کنند مایلاند محتوای کمتری از جنس «AI slop» مشاهده کنند.
کنترل جدید محتوای هوش مصنوعی در تیکتاک
همانطور که در نمونه منتشرشده قابل مشاهده است، تیکتاک یک اسلایدر ویژه برای «محتوای تولیدشده با هوش مصنوعی» به صفحه کنترل Manage Topics افزوده است؛ قابلیتی که ابتدا در ماه ژوئن معرفی شد. این بخش به کاربران امکان میدهد مواردی را که علاقهای به آن ندارند مشخص کنند تا الگوریتم تیکتاک تجربه آنها را بهطور دقیقتر شخصیسازی کند.
اکنون کاربران میتوانند از طریق همین بخش، نمایش ویدئوهای تولیدشده با هوش مصنوعی را نیز محدود کنند.
تیکتاک توضیح میدهد:
«Manage Topics پیش از این امکان تنظیم میزان نمایش محتوا در بیش از ۱۰ دسته مختلف مانند رقص، ورزش، غذا و نوشیدنی را فراهم میکرد. کنترل محتوای هوش مصنوعی نیز با همین هدف طراحی شده تا کاربران بتوانند محتوای فید خود را بهتر تنظیم کنند، نه اینکه محتوا را بهطور کامل حذف یا جایگزین کنند.»

بنابراین اگر از دیدن ویدئوهای عجیب تولیدشده با هوش مصنوعی، بازیگران مصنوعی با رفتارهای غیرطبیعی یا کلیپهای دستکاریشده خسته شدهاید، اکنون میتوانید به تیکتاک اعلام کنید که علاقهای به این نوع محتوا ندارید تا حضور آنها در بخش For You کاهش یابد.
با این حال، کاربران هنوز بهطور کامل از این نوع محتوا بینیاز نخواهند شد؛ زیرا سیستم تشخیص تیکتاک هنوز قادر نیست تمام ویدئوهای تولیدشده با هوش مصنوعی را شناسایی کند.
تلاشهای تیکتاک برای تشخیص بهتر محتوای هوش مصنوعی
تیکتاک در حال آزمایش ویژگی «واترمارک نامرئی» روی ویدئوهای تولیدشده با هوش مصنوعی است تا تشخیص این موارد آسانتر شود.
این شرکت میگوید:
«در هفتههای آینده، واترمارکهای نامرئی را به محتوای تولیدشده با ابزارهای داخلی تیکتاک مانند AI Editor Pro و نیز ویدئوهایی که دارای گواهی C2PA هستند اضافه میکنیم. این واترمارکها به ما کمک میکنند محتوای هوش مصنوعی را دقیقتر برچسبگذاری کرده و درک بهتری از تغییرات ایجادشده روی محتوا داشته باشیم.»
تیکتاک هماکنون کاربران را موظف میکند محتوای واقعگرایانه تولیدشده با هوش مصنوعی را برچسبگذاری کنند. همچنین از ابزارهای C2PA برای تشخیص و نشانهگذاری این محتوا استفاده میکند. اما این روشها هنگام بازنشر ویدئوها در پلتفرمهای دیگر قابل اطمینان نیستند، زیرا اطلاعات متادیتا همراه ویدئو منتقل نمیشود.
source