:::#i分享【隱私保護與預防不當內容,可能在社群媒體中兼顧嗎?藉由「後設資料」分析可能做到!】
消息類別:婦幼安全宣導
發佈日期:2024/5/6
社群平臺為了保護青少年的身心安全,紛紛推出對用戶所發布內容的相關偵測、前置警語等防護方法。不過,只關注公開互動內容,或許會讓保護出現漏洞。
根據卓克索大學的網路安全相關研究結果,雖然青少年在社群媒體上確實面臨相關風險,但同時他們也可以透過社群尋求同儕的支持,這種特色尤其體現在直接的私訊傳遞中。研究團隊收集了大量青少年 Instagram 活動的資料,其中包括超過 700 萬封私訊。並要求參與研究的青少年對自己的對話紀錄進行註釋,標記讓他們感到不快或不安全的資訊。
使用上述資料分析後,團隊發現網路對話隱私權對於青少年的網路安全非常重要,同時,社群平台上有許多的有害互動實際上是以私訊的形式出現的。從資料集中可發現用戶標記的不安全訊息類型包括騷擾、性誘惑、裸體、色情、仇恨言論以及推銷或宣傳非法活動。
然而,由於平臺也必須保護用戶隱私,對於私訊會採取端對端加密,以確保訊息內容安全且只能由對話參與者存取。因此要使用自動化技術來偵測和預防青少年的網路風險相當困難,如何在不侵犯青少年用戶隱私的情況下保護他們,成為了一項挑戰。
為此,團隊進行了一項研究,以找出方法來用最少的資料偵測有害訊息。團隊分析風險對話的各種特徵或後設資料(例如對話長度、平均回應時間和對話參與者的關係,等不涉及對話內容的資料)如何有助於機器學習程式偵測這些風險。在這項研究中,團隊開發了機器學習程式,僅使用對話的後設資料,就能在 87% 的情況下辨識不安全對話。然而,如果能分析對話的文字、圖像和影片,仍是識別風險類型和嚴重程度最有效的方法。
這些研究結果結果凸顯了後設資料對於區分不安全對話的重要性,可以作為平臺設計人工智慧風險識別的指南。平臺可以使用後設資料等進階功能來阻止有害內容,而不需侵犯使用者的隱私。例如,持續騷擾人士會生產出未建立連結的用戶之間重複、簡短、片面的通訊後設資料,也就讓人工智慧系統可以此判斷來阻止騷擾者。
理想上,也可以設計讓未成年人及其監護人選擇是否開啟加密、風險檢測功能,如此一來,用戶就可以在隱私和安全之間自主權衡。
Teens on social media need both protection and privacy – AI could help get the balance right -
瀏覽人數: 2369
