Beranda » Blog » Perempuan dalam AI: Anika Collier Navaroli berupaya menghilangkan ketidakseimbangan kekuatan

Perempuan dalam AI: Anika Collier Navaroli berupaya menghilangkan ketidakseimbangan kekuatan

Diposting pada 24 Juni 2024 oleh admin / Dilihat: 0 kali

Untuk memberikan waktu yang layak bagi para akademisi perempuan yang berfokus pada AI dan pihak lain untuk menjadi pusat perhatian, TechCrunch meluncurkan serangkaian wawancara berfokus pada wanita luar biasa yang berkontribusi pada revolusi AI.

Anika Collier Navaroli adalah peneliti senior di Tow Center for Digital Journalism di Columbia University dan Technology Public Voices Fellow di OpEd Project, yang bekerja sama dengan MacArthur Foundation.

Dia dikenal karena penelitian dan pekerjaan advokasinya di bidang teknologi. Sebelumnya, ia bekerja sebagai rekan praktisi ras dan teknologi di Stanford Center on Philanthropy and Civil Society. Sebelumnya, dia memimpin Trust & Safety di Twitch dan Twitter. Navaroli mungkin paling dikenal karena kesaksiannya di kongres di Twitter, di mana dia berbicara tentang peringatan yang diabaikan tentang kekerasan yang akan terjadi di media sosial yang mengawali apa yang kemudian menjadi serangan Capitol pada 6 Januari.

Secara singkat, bagaimana Anda memulai di bidang AI? Apa yang membuat Anda tertarik pada bidang ini?

Sekitar 20 tahun yang lalu, saya bekerja sebagai petugas fotokopi di ruang redaksi surat kabar kampung halaman saya selama musim panas ketika surat kabar sudah digital. Saat itu, saya adalah seorang sarjana yang mempelajari jurnalisme. Situs media sosial seperti Facebook melanda kampus saya, dan saya menjadi terobsesi untuk mencoba memahami bagaimana undang-undang yang dibangun di atas mesin cetak akan berkembang seiring dengan berkembangnya teknologi. Keingintahuan itu membawa saya ke sekolah hukum, tempat saya bermigrasi ke Twitter, mempelajari hukum dan kebijakan media, dan menyaksikan gerakan Arab Spring dan Occupy Wall Street. Saya menggabungkan semuanya dan menulis tesis master saya tentang bagaimana teknologi baru mengubah cara informasi mengalir dan bagaimana masyarakat menjalankan kebebasan berekspresi.

Saya bekerja di beberapa firma hukum setelah lulus dan kemudian bekerja di Data & Society Research Institute untuk memimpin penelitian lembaga think tank baru tentang apa yang kemudian disebut “big data”, hak-hak sipil, dan keadilan. Pekerjaan saya di sana mengamati bagaimana sistem AI awal seperti perangkat lunak pengenalan wajah, alat kepolisian prediktif, dan algoritma penilaian risiko peradilan pidana mereplikasi bias dan menciptakan konsekuensi yang tidak diinginkan yang berdampak pada komunitas yang terpinggirkan. Saya kemudian bekerja di Color of Change dan memimpin audit hak-hak sipil pertama di sebuah perusahaan teknologi, mengembangkan pedoman organisasi untuk kampanye akuntabilitas teknologi, dan mengadvokasi perubahan kebijakan teknologi kepada pemerintah dan regulator. Dari sana, saya menjadi pejabat kebijakan senior di tim Trust & Safety di Twitter dan Twitch.

Pekerjaan apa yang paling Anda banggakan di bidang AI?

Saya adalah orang yang paling bangga dengan pekerjaan saya di perusahaan teknologi yang menggunakan kebijakan untuk secara praktis mengubah keseimbangan kekuatan dan memperbaiki bias dalam sistem algoritmik yang menghasilkan budaya dan pengetahuan. Di Twitter, saya menjalankan beberapa kampanye untuk memverifikasi individu yang sebelumnya dikecualikan dari proses verifikasi eksklusif, termasuk perempuan kulit hitam, orang kulit berwarna, dan orang aneh. Hal ini juga mencakup pakar AI terkemuka seperti Safiya Noble, Alondra Nelson, Timnit Gebru, dan Meredith Broussard. Ini terjadi pada tahun 2020 ketika Twitter masih menjadi Twitter. Saat itu, verifikasi berarti nama dan konten Anda menjadi bagian dari algoritme inti Twitter karena tweet dari akun terverifikasi dimasukkan ke dalam rekomendasi, hasil pencarian, linimasa beranda, dan berkontribusi terhadap penciptaan tren. Jadi upaya untuk memverifikasi orang-orang baru dengan perspektif berbeda mengenai AI secara mendasar telah mengubah suara mereka yang diberi otoritas sebagai pemimpin pemikiran dan mengangkat ide-ide baru ke dalam percakapan publik pada saat-saat yang sangat kritis.

Saya juga sangat bangga dengan penelitian yang saya lakukan di Stanford yang berhasil menghasilkan Hitam dalam Moderasi. Ketika saya bekerja di perusahaan teknologi, saya juga memperhatikan bahwa tidak ada seorang pun yang benar-benar menulis atau berbicara tentang pengalaman yang saya alami setiap hari sebagai orang kulit hitam yang bekerja di Trust & Safety. Jadi ketika saya meninggalkan industri ini dan kembali ke dunia akademis, saya memutuskan untuk berbicara dengan pekerja teknologi kulit hitam dan mengungkap kisah mereka. Penelitian ini akhirnya menjadi yang pertama dan telah dilakukan terpacu begitu banyak perbincangan baru dan penting tentang pengalaman karyawan teknologi dengan identitas marginal.

Bagaimana Anda mengatasi tantangan industri teknologi yang didominasi laki-laki dan, lebih jauh lagi, industri AI yang didominasi laki-laki?

Sebagai seorang wanita kulit hitam queer, menavigasi ruang yang didominasi laki-laki dan ruang di mana saya berada telah menjadi bagian dari seluruh perjalanan hidup saya. Dalam bidang teknologi dan AI, menurut saya aspek yang paling menantang adalah apa yang saya sebut dalam penelitian saya sebagai “pekerjaan identitas yang dipaksakan”. Saya menciptakan istilah ini untuk menggambarkan situasi yang sering terjadi di mana karyawan dengan identitas yang terpinggirkan diperlakukan sebagai suara dan/atau perwakilan dari seluruh komunitas yang memiliki identitas yang sama.

Karena besarnya risiko yang harus ditanggung dalam mengembangkan teknologi baru seperti AI, para pekerja terkadang merasa hampir mustahil untuk melarikan diri. Saya harus belajar menetapkan batasan yang sangat spesifik bagi diri saya sendiri tentang masalah apa yang ingin saya tangani dan kapan.

Apa saja masalah paling mendesak yang dihadapi AI seiring dengan perkembangannya?

Berdasarkan pelaporan investigasi, model AI generatif saat ini telah menghabiskan semua data di internet dan akan segera kehabisan data yang tersedia untuk dikonsumsi. Jadi, perusahaan AI terbesar di dunia beralih ke data sintetis, atau informasi yang dihasilkan oleh AI itu sendiri, dibandingkan manusia, untuk terus melatih sistem mereka.

Ide itu membawa saya ke lubang kelinci. Jadi, saya baru-baru ini menulis sebuah opini-ed berargumen bahwa menurut saya penggunaan data sintetis sebagai data pelatihan adalah salah satu masalah etika paling mendesak yang dihadapi pengembangan AI baru. Sistem AI generatif telah menunjukkan bahwa berdasarkan data pelatihan aslinya, keluarannya adalah meniru bias dan menciptakan informasi palsu. Jadi jalur pelatihan sistem baru dengan data sintetis berarti terus-menerus memasukkan kembali keluaran yang bias dan tidak akurat ke dalam sistem sebagai data pelatihan baru. SAYA dijelaskan hal ini berpotensi berubah menjadi umpan balik yang sangat buruk.

Sejak saya menulis artikel itu, Mark Zuckerberg dipuji bahwa chatbot Llama 3 yang diperbarui dari Meta adalah bertenaga sebagian berdasarkan data sintetis dan merupakan produk AI generatif “paling cerdas” di pasar.

Masalah apa saja yang harus diwaspadai oleh pengguna AI?

AI adalah bagian yang ada di mana-mana dalam kehidupan kita saat ini, mulai dari pemeriksa ejaan dan umpan media sosial hingga chatbots dan generator gambar. Dalam banyak hal, masyarakat telah menjadi kelinci percobaan bagi eksperimen teknologi baru yang belum teruji ini. Namun pengguna AI tidak boleh merasa tidak berdaya.

saya telah berdebat bahwa para pendukung teknologi harus bersatu dan mengorganisir pengguna AI untuk menyerukan People Pause on AI. Saya pikir Writers Guild of America telah menunjukkan bahwa dengan organisasi, tindakan kolektif, dan tekad yang sabar, orang-orang dapat bersatu untuk menciptakan batasan yang berarti dalam penggunaan teknologi AI. Saya juga percaya bahwa jika kita berhenti sejenak untuk memperbaiki kesalahan masa lalu dan membuat pedoman dan peraturan etika baru, AI tidak harus menjadi sebuah alat yang tidak berguna. ancaman eksistensial untuk masa depan kita.

Apa cara terbaik untuk membangun AI secara bertanggung jawab?

Pengalaman saya bekerja di perusahaan teknologi menunjukkan betapa pentingnya siapa yang ada di dalam ruangan untuk menulis kebijakan, menyampaikan argumen, dan mengambil keputusan. Jalur yang saya lalui juga menunjukkan bahwa saya mengembangkan keterampilan yang saya butuhkan untuk berhasil dalam industri teknologi dengan memulai di sekolah jurnalisme. Saya sekarang kembali bekerja di Columbia Journalism School dan saya tertarik untuk melatih generasi berikutnya yang akan melakukan pekerjaan akuntabilitas teknologi dan mengembangkan AI secara bertanggung jawab baik di dalam perusahaan teknologi maupun sebagai pengawas eksternal.

Menurut saya [journalism] sekolah memberi orang pelatihan unik dalam menginterogasi informasi, mencari kebenaran, mempertimbangkan berbagai sudut pandang, menciptakan argumen logis, dan menyaring fakta dan kenyataan dari opini dan informasi yang salah. Saya yakin hal ini merupakan landasan yang kuat bagi orang-orang yang akan bertanggung jawab untuk menulis aturan tentang apa yang dapat dan tidak dapat dilakukan oleh AI pada generasi selanjutnya. Dan saya berharap dapat menciptakan jalur yang lebih beraspal bagi mereka yang akan datang.

Saya juga percaya bahwa selain pekerja Trust & Safety yang terampil, industri AI memerlukan regulasi eksternal. Di AS, saya membantah bahwa hal ini harus diwujudkan dalam bentuk badan baru yang mengatur perusahaan-perusahaan teknologi Amerika dengan wewenang untuk menetapkan dan menegakkan standar dasar keselamatan dan privasi. Saya juga ingin terus berupaya menghubungkan regulator saat ini dan di masa depan dengan mantan pekerja teknologi yang dapat membantu mereka yang berkuasa mengajukan pertanyaan yang tepat dan menciptakan solusi baru yang bernuansa dan praktis.

Bagikan ke

Perempuan dalam AI: Anika Collier Navaroli berupaya menghilangkan ketidakseimbangan kekuatan

Saat ini belum tersedia komentar.

Silahkan tulis komentar Anda

Alamat email Anda tidak akan kami publikasikan. Kolom bertanda bintang (*) wajib diisi.

*

*

Perempuan dalam AI: Anika Collier Navaroli berupaya menghilangkan ketidakseimbangan kekuatan

Chat via Whatsapp

Ada yang ditanyakan?
Klik untuk chat dengan customer support kami

Iffah
● online
Iffah
● online
Halo, perkenalkan saya Iffah
baru saja
Ada yang bisa saya bantu?
baru saja

Produk yang sangat tepat, pilihan bagus..!

Berhasil ditambahkan ke keranjang belanja
Lanjut Belanja
Checkout
Produk Quick Order

Pemesanan dapat langsung menghubungi kontak dibawah: