Home Ekonomi ShhorAI İnterneti Daha Güvenli Hale Getirmeye Çalışıyor

ShhorAI İnterneti Daha Güvenli Hale Getirmeye Çalışıyor

5
0

“Varoluşunuz politiktir,” diyor eşcinsel topluluklara karşı nefret söylemini filtreleyebilen bir platform olan ShhorAI’nin kurucusu Aindriya Barua. Barua, ikili olmayan olarak tanımlanıyor ve cinsiyetten bağımsız zamirlerle “onlar/onlara” geçiyor.

Barua, çocukluğunun çoğunu çizim yaparak geçirdi ve büyüdükçe bunları çevrimiçi olarak yayınladı. Tepkiler sadece kaba olmaktan öteydi. Nefret doluydu. Bengaluru’da teknoloji lisanslarını bitirmeye çalışırken trolleme hala durmamıştı. Çalışmaya başladıklarında, nefret dolu mesajlar o kadar kötü bir hal almıştı ki çevrimiçi insanlar kız kardeşlerinin bilgilerini ifşa etmeye ve çocuğunun hayatını tehdit etmeye başladı.

Barua, nefret söylemini tespit edip filtreleyebilecek bir teknoloji yaratmak için Hint doğal dil işleme konusundaki uzmanlıklarından yararlanabileceklerini fark etti.

ShhorAI’nin kurucusu Aindriya Barua (Kaynak: ShhorAI web sitesi)

Doğal Dil İşleme veya NLP, makine öğrenimini kullanarak bilgisayarlara insan dilini nasıl anlayıp iletişim kuracaklarını öğreten bir bilgisayar bilimi ve yapay zeka alanıdır. Hint NLP’si, bir makineye Hindistan’da konuşulan dilleri öğretmektir.

Hindistan’da büyük dil modelleri oluşturmak, uygun veri kümelerinin eksikliği göz önüne alındığında zaten bir zorluktur. Buna rağmen, birkaç AI girişimi Hindistan’ın 12 ana dilinde anlayabilen ve yanıt verebilen birkaç tane oluşturmayı başardı.

Barua yapmak istedikleri şey için doğru veri kümelerini bulma konusunda iyimserdi, ancak kısa sürede bunun söylenmesinin yapmaktan daha kolay olduğunu fark etti. “Bu belirli kullanım durumu için belirli veri kümelerinin olmadığını fark ettim.”

Ancak nefret söylemini tespit etme istekleri birkaç faktör tarafından engelleniyor:

1) Büyük Teknoloji şirketlerinin içerik denetimi, Hint dillerindeki kötüye kullanımı gerçekten hesaba katmıyor, bu nedenle nefret içeriklerinin mevcut filtreleri aşmasına izin veriyor.

2) Filtreler olsa bile, rakam, harf ve sembollerden oluşan bir kombinasyon, alfabe tabanlı oldukları için çoğu zaman mevcut filtreleri atlatabilir.

3) Taciz kelimesinin nasıl yazıldığı kişiden kişiye ve bölgeden bölgeye farklılık gösterebilir, bu da filtrenin işaretleyeceği tek bir kelime olmasını daha da zorlaştırır.

Barua, “İnsanlar bir dil konuşabilir ancak çevrimiçi olarak İngilizce yazarlar çünkü klavyeler genellikle bu şekilde yapılandırılmıştır” diyor. NLP’de bu olguya kod-karma dil denir.

Böyle bir veri kümesinin var olmadığını fark ettikten sonra Barua, sosyal medyasını kullanarak nefret söylemine yönelik bağlantıları isteyen bir çağrı yayınladı, bu bağlantılar bireylere veya çevrimiçi örneklerine yönelikti. Tüm bu örnekler otomatik olarak bir elektronik tabloya aktarılıyor ve bugün hala yeni verilerle güncelleniyor.

Ancak bir yapay zekayı eğitebilecek bir veri kümesi oluşturmak için Barua, kendilerine gönderilen her bağlantıyı nefret söylemi veya nefret söylemi değil olarak manuel olarak etiketlemek zorundaydı. Birleşmiş Milletler Nüfus Fonu hackathon’u aracılığıyla, verileri etiketlemeye yardımcı olmak için 45 gönüllünün yardımını almayı başardılar. Şimdiye kadar, 45.000 nefret söylemi örneği içeren bir veri kümesi oluşturmayı başardılar. Barua, mevcut veri kümesinin bir yapay zekanın öğrenmesi için yeterli olduğunu söylüyor.

Mevcut Uygulama

UNFPA hackathon’u için ShhorAI konseptinin kanıtı olarak Barua, Reddit için bir bot oluşturarak bir subreddit’te (Reddit’te belirli konuları tartışmak için bir forum) içerikleri nefret söylemi olarak işaretledi. “Bir kullanıcı nefret söylemi kullandığı tespit edilirse, bot kullanıcıya bir uyarı verir; üç uyarıdan sonra subreddit’ten yasaklanırlar.”

Yasaklanan kullanıcılar yine de yasağa itiraz edebilirler, içerik denetiminin insani boyutu burada devreye girer. Bir insan moderatör, bir kullanıcının yasaklanmasına neden olan mesajları inceler. Yasağın geri alınıp alınmayacağına veya sürdürülüp sürdürülmeyeceğine karar verirler.

Barua, Reddit botunun kavram kanıtı için kullanıldığını açıklasa da, ShhorAI’nin UI tabanlı veya uygulama tabanlı bir yaklaşımla queer insanlara yönelik nefret söylemini çözebileceğini düşünmüyorlar. “Böyle bir yaklaşım asla küresel bir çözüm olmayacak; tacizcileri sorumlu tutmayacak,” diyorlar ve ekliyorlar, “Yaptığınız tek şey UI tabanlı bir yaklaşımla gözlerinizi kapatmak.”

ShhorAI’nin diğer sistemlere yerleştirilecek bir uygulama programlama arayüzü olarak daha fazla uygulama kullanım durumuna sahip olduğunu açıklıyorlar. Temel olarak API’ler, farklı yazılım parçalarının iletişim kurmasına ve veri alışverişinde bulunmasına izin veren bir dizi kural ve protokoldür.

Bunu açıklamanın en kolay yolu, telefonunuzdaki hava durumu verilerine bakmanızdır. Aslında olan şey, Hindistan’ın hava durumu departmanı tarafından yakalanan verilere, kullanıcıya veri sağlamak için telefonunuzdaki bir API tarafından erişilmesidir.

ShhorAI’yi Genişletmek

ShhorAI üzerinde çalışırken Barua, interneti queer topluluğu için daha güvenli bir alan haline getirmeye çalışırken, göz ardı edemeyecekleri başka sorunların da olduğunu fark etti.

“Birçok queer insan kitle fonlamasına bağımlıdır, ancak bir Dalit queer kişi kitle fonlaması talep ettiğinde çok daha fazla taciz alır; kastçı hakaretlerin yanı sıra queer-fobik hakaretler alırlar,” diyor Barua. Bu farkındalığın bir sonucu olarak, ShhorAI’nin kapsamını sekiz kategoriye genişlettiler: queerfobi, genel cinsiyetçilik, politik nefret, toplumsal şiddet, kastçılık, ırkçılık, engellilikçilik ve genel şiddet.

Aslında, bu yılın başlarında yapılan genel seçimler sırasında Barua nefret söyleminde bir artış gördü. Barua, “Siyasi nefret söyleminin çoğunun mezhepsel nefret söylemiyle çok büyük bir kesişim içinde olduğunu anladım” diyor. Seçimler sırasında toplanan verileri ShhorAI’yi daha fazla eğitmek için kullanmaya devam ettiler.

ShhorAI’nin Geleceği

“Nefret söylemi yalnızca büyük sosyal medya platformlarında gerçekleşmiyor,” diyor Barua, LGBTQIA+ topluluğu arasında popüler olan Grindr gibi flört uygulamalarını işaret ederek. Sosyal medyanın dışında, ShhorAI gibi bir çözüm gerektiren birkaç başka alana da işaret ediyorlar.

Çevrimiçi video oyunları genellikle ırkçılık, cinsiyetçilik ve nefretin yuvasıdır ve Barua’nın bir işletme olarak hedeflenmeye değer bir alan olduğunu söylediği bir alandır. Barua, kullanıcılarının güvende hissetmelerini sağlarken daha iyi bir topluluk da yaratmak için şirketlerin ShhorAI’yi benimsemeleri için güçlü bir dava oluşturabileceklerine inanıyor.

Tripura yerlisi, daha büyük sosyal medya platformları söz konusu olduğunda, Büyük Teknoloji şirketlerinin sahte haberlere yaptıkları gibi yaklaşmaları, yani üçüncü bir taraftan yardım almaları gerektiğini söylüyor.

Meta ve Google gibi şirketler, platformlarında sahte haberlerin yayılmasını önlemek amacıyla Hindistan’daki çeşitli gerçek kontrol haber kuruluşlarıyla iş birliği yapıyor. İçerik denetimi için de aynı şeyi neden yapmasınlar ki? diye soruyor Barua. “Nefret söylemi ve içerik denetimi için sonunda üçüncü taraflara başvurmaları gerektiğini düşünüyorum çünkü her ülkenin kültürel nüanslarını anlamaları mümkün değil.”

Ancak şimdilik Barua, operasyonlarının tamamen kendi kaynaklarıyla yürütüldüğü göz önüne alındığında, küçük bir başlangıç ​​yapmak istiyor. “Sivil toplum kuruluşlarından biraz fon almaya çalışıyorum,” dediler.

ShhorAI tamamen Barua ve 45 gönüllü tarafından yürütülüyor. Genellikle kendi intranetlerini işleten okullar veya ofisler gibi müşteriler edinmeyi umuyorlar, çünkü böyle bir teknolojiyi benimsemeye daha istekli olma olasılıkları daha yüksek.

Gen AI, Finansta Tahmin ve Bütçe Sapmaları Üzerinde En Anında Etkiye Sahip Olacak: Gartner. NDTV Profit tarafından hazırlanan Teknoloji hakkında daha fazla bilgi edinin.

Kaynak

LEAVE A REPLY

Please enter your comment!
Please enter your name here