Kecerdasan buatan dan teknologi pembelajaran mesin mengubah masyarakat dengan cepat dan akan terus berlanjut dalam beberapa dekade mendatang. Transformasi sosial ini akan memiliki dampak etis yang mendalam, dengan teknologi baru yang besar pengaruhnya ini akan meningkatkan sekaligus merusak kehidupan manusia. AI, sebagai eksternalisasi/perwujudan kecerdasan manusia, memberikan kepada kita dalam bentuk yang diperkuat segala sesuatu yang sudah dimiliki umat manusia, baik dan jahat. Banyak yang dipertaruhkan. Di persimpangan jalan dalam sejarah ini kita harus berpikir dengan sangat hati-hati tentang bagaimana melakukan transisi ini, atau kita berisiko memberdayakan sisi yang lebih suram dari sifat kita, daripada yang lebih cerah.
Mengapa etika AI menjadi masalah sekarang? Pembelajaran mesin (ML) melalui jaringan neural berkembang pesat karena tiga alasan: 1) Peningkatan besar dalam ukuran kumpulan data; 2) Peningkatan besar dalam daya komputasi; 3) Peningkatan besar dalam algoritme ML dan lebih banyak pengetahuan manusia untuk menulisnya. Ketiga tren ini memusatkan kekuasaan, dan -- Kekuatan yang besar disertai tanggung jawab yang besar pula- [2].
Sebagai sebuah institusi, Markkula Center for Applied Ethics telah memikirkan secara mendalam tentang etika AI selama beberapa tahun. Artikel ini dimulai sebagai presentasi yang disampaikan pada konferensi akademik dan sejak itu diperluas menjadi makalah akademis (tautan di bawah) dan baru-baru ini menjadi presentasi -- Artificial Intelligence and Ethics: Sixteen Issues- (Kecerdasan Buatan dan Etika: Enam Belas Masalah, Red.) yang telah saya berikan di A.S. dan internasional [3]. Dalam semangat itu, saya memberikan daftar terkini:
1. Keselamatan Teknis
Pertanyaan pertama untuk teknologi apa pun adalah apakah itu berfungsi sebagaimana mestinya. Akankah sistem AI berfungsi seperti yang dijanjikan atau akan gagal? Jika dan ketika mereka gagal, apa akibat dari kegagalan tersebut? Dan jika kita bergantung pada mereka, dapatkah kita bertahan hidup tanpa mereka?
Misalnya, beberapa orang tewas dalam kecelakaan mobil semi-otonom karena kendaraan menghadapi situasi di mana mereka gagal membuat keputusan yang aman. Meskipun menulis kontrak yang sangat rinci yang membatasi tanggung jawab secara hukum dapat mengurangi tanggung jawab produsen, dari sudut pandang moral, tidak hanya tanggung jawab masih ada pada perusahaan, tetapi kontrak itu sendiri dapat dilihat sebagai skema yang tidak etis untuk menghindari tanggung jawab yang sah.
Pertanyaan tentang keselamatan dan kegagalan teknis terpisah dari pertanyaan tentang bagaimana teknologi yang berfungsi dengan baik dapat digunakan untuk kebaikan atau kejahatan (pertanyaan 3 dan 4, di bawah). Pertanyaan ini hanyalah salah satu fungsi, tetapi ini adalah fondasi yang harus dibangun oleh semua analisis lainnya.
2. Transparansi dan Privasi
Setelah kita menentukan bahwa teknologi berfungsi dengan baik, dapatkah kita benar-benar memahami cara kerjanya dan mengumpulkan data tentang fungsinya dengan benar? Analisis etis selalu bergantung pada mendapatkan fakta terlebih dahulu—baru setelah itu evaluasi dapat dimulai.
Ternyata dengan beberapa teknik pembelajaran mesin seperti pembelajaran mendalam di jaringan neural, sulit atau tidak mungkin untuk benar-benar memahami mengapa mesin membuat pilihan yang dibuatnya. Dalam kasus lain, mungkin mesin dapat menjelaskan sesuatu, tetapi penjelasannya terlalu rumit untuk dipahami manusia.
Misalnya, pada tahun 2014 sebuah komputer membuktikan teorema matematika, menggunakan bukti yang, setidaknya, lebih panjang dari seluruh ensiklopedia Wikipedia [4]. Penjelasan semacam ini mungkin merupakan penjelasan yang benar, tetapi manusia tidak akan pernah tahu pasti.
Sebagai poin tambahan, secara umum, semakin kuat seseorang atau sesuatu, seharusnya semakin transparan, sedangkan semakin lemah seseorang, semakin banyak hak privasi yang harus dia miliki. Oleh karena itu gagasan bahwa AI yang kuat mungkin secara intrinsik sulit dimengerti adalah membingungkan.
3. Penggunaan yang Bermanfaat & Kapasitas untuk Kebaikan
Tujuan utama AI adalah, seperti setiap teknologi lainnya, untuk membantu orang menjalani hidup yang lebih lama, lebih berkembang, dan lebih memuaskan. Ini bagus, dan oleh karena itu selama AI membantu orang dengan cara ini, kita bisa senang dan menghargai manfaat yang diberikannya kepada kita.
Kecerdasan tambahan kemungkinan akan memberikan peningkatan pada hampir setiap bidang usaha manusia, termasuk, misalnya, arkeologi, penelitian biomedis, komunikasi, analitik data, pendidikan, efisiensi energi, perlindungan lingkungan, pertanian, keuangan, layanan hukum, diagnostik medis, manajemen sumber daya, eksplorasi ruang angkasa, transportasi, pengelolaan limbah, dan sebagainya.
Sebagai salah satu contoh nyata dari manfaat AI, beberapa peralatan pertanian sekarang memiliki sistem komputer yang mampu mengidentifikasi gulma secara visual dan menyemprotnya dengan dosis kecil herbisida yang ditargetkan. Ini tidak hanya melindungi lingkungan dengan mengurangi penggunaan bahan kimia pada tanaman, tetapi juga melindungi kesehatan manusia dengan mengurangi paparan bahan kimia ini.
4. Penggunaan Berbahaya & Kapasitas untuk Kejahatan
Sebuah teknologi yang berfungsi dengan sangat baik, seperti senjata nuklir, ketika digunakan untuk tujuan yang menjadi maksud awalnya dapat menyebabkan kejahatan yang sangat besar. Kecerdasan buatan, seperti kecerdasan manusia, tanpa diragukan akan digunakan untuk kejahatan.
Misalnya, pengawasan bertenaga AI sudah tersebar luas, baik dalam konteks yang sesuai (mis. kamera keamanan bandara), yang mungkin tidak pantas (mis. produk dengan mikrofon yang selalu aktif di rumah kita), dan yang benar-benar tidak pantas (mis. produk yang membantu rezim otoriter mengidentifikasi dan menindas warganya). Contoh jahat lainnya dapat mencakup peretasan komputer dengan bantuan AI dan sistem senjata otonom mematikan (LAWS), alias "robot pembunuh". Ketakutan tambahan, dari berbagai tingkat yang masuk akal, termasuk skenario seperti yang ada di film 2001: A Space Odyssey, Wargames, dan Terminator.
Meskipun teknologi film dan senjata mungkin tampak sebagai contoh ekstrem tentang bagaimana AI dapat memberdayakan kejahatan, kita harus ingat bahwa persaingan dan perang selalu menjadi pendorong utama kemajuan teknologi, dan militer serta perusahaan sedang mengerjakan teknologi ini sekarang. Sejarah juga menunjukkan bahwa kejahatan besar tidak selalu dimaksudkan sepenuhnya (misalnya, tersandung ke dalam Perang Dunia I dan berbagai ancaman nuklir dalam Perang Dingin), sehingga memiliki kekuatan destruktif, bahkan jika tidak berniat untuk menggunakannya, tetap berisiko menimbulkan bencana. Karena itu, mencegah, melarang, dan melepaskan jenis teknologi tertentu akan menjadi solusi yang paling bijaksana.
5. Bias dalam Data, Perangkat Pelatihan, dll.
Salah satu hal yang menarik tentang jaringan neural, pekerja keras kecerdasan buatan saat ini, adalah bahwa mereka secara efektif menggabungkan program komputer dengan data yang diberikan padanya. Ini memiliki banyak manfaat, tetapi juga berisiko membiaskan seluruh sistem dengan cara yang tidak terduga dan berpotensi merugikan.
Bias algoritmik telah ditemukan, misalnya, di berbagai bidang mulai dari hukuman pidana hingga pemberian keterangan foto. Bias ini lebih dari sekadar mempermalukan perusahaan yang membuat produk cacat ini; mereka memiliki efek negatif dan berbahaya yang nyata pada orang-orang yang menjadi korban dari bias ini, serta mengurangi kepercayaan pada perusahaan, pemerintah, dan institusi lain yang mungkin menggunakan produk bias ini. Bias algoritmik adalah salah satu perhatian utama dalam AI saat ini dan akan tetap demikian pada masa mendatang kecuali jika kita berusaha membuat produk teknologi kita lebih baik daripada kita. Seperti yang dikatakan seseorang pada pertemuan pertama Kemitraan dengan AI, "Kita akan mereproduksi semua kesalahan manusia kita dalam bentuk buatan kecuali kita berusaha sekarang untuk memastikan bahwa kita tidak melakukannya" [5].
6. Pengangguran/Kurangnya Tujuan & Makna
Banyak orang telah merasakan bahwa AI akan menjadi ancaman bagi kategori pekerjaan tertentu. Memang, otomasi industri telah menjadi faktor utama hilangnya pekerjaan sejak awal revolusi industri. AI hanya akan memperluas tren ini ke lebih banyak bidang, termasuk bidang yang secara tradisional dianggap lebih aman dari otomatisasi, misalnya hukum, kedokteran, dan pendidikan. Tidak jelas karir baru apa yang pada akhirnya akan dapat ditransisikan oleh orang-orang yang menganggur, walaupun semakin banyak pekerjaan harus dilakukan bersangkutan dengan orang lain, semakin besar kemungkinan orang ingin berurusan dengan sesama manusia dan bukan AI.
Bersamaan dengan kekhawatiran terhadap pekerjaan adalah kekhawatiran tentang bagaimana umat manusia menggunakan waktunya dan apa yang membuat hidup dijalani dengan baik. Apa yang akan dilakukan jutaan pengangguran? Tujuan baik apa yang bisa mereka miliki? Kontribusi apa yang bisa mereka berikan untuk kesejahteraan masyarakat? Bagaimana masyarakat akan mencegah mereka menjadi kecewa, getir, dan terhanyut dalam gerakan jahat seperti supremasi kulit putih dan terorisme?
7. Menumbuhkan Ketimpangan Sosial Ekonomi
Terkait dengan masalah pengangguran adalah pertanyaan bagaimana orang akan bertahan jika pengangguran naik ke tingkat yang sangat tinggi. Dari mana mereka akan mendapatkan uang untuk menghidupi diri sendiri dan keluarga mereka? Meskipun harga dapat turun karena biaya produksi yang lebih rendah, mereka yang mengendalikan AI juga kemungkinan besar akan meraup banyak uang yang seharusnya digunakan untuk gaji orang yang sekarang menganggur, dan oleh karena itu ketimpangan ekonomi akan meningkat. Ini juga akan mempengaruhi kesenjangan ekonomi internasional, dan karena itu kemungkinan besar merupakan ancaman besar bagi negara-negara kurang berkembang.
Beberapa telah menyarankan pendapatan dasar universal (UBI) untuk mengatasi masalah ini, tetapi ini akan membutuhkan restrukturisasi ekonomi nasional yang besar. Berbagai solusi lain untuk masalah ini dapat dilakukan, tetapi semuanya melibatkan perubahan besar yang berpotensi terjadi pada masyarakat manusia dan pemerintah. Pada akhirnya ini adalah masalah politik, bukan teknis, jadi solusi ini (seperti banyak masalah yang dijelaskan di sini) perlu ditangani pada tingkat politik.
8. Efek Lingkungan
Model pembelajaran mesin membutuhkan energi yang sangat besar untuk dikembangkan, begitu banyak energi sehingga biayanya dapat mencapai puluhan juta dolar atau lebih. Tak perlu dikatakan, jika energi ini berasal dari bahan bakar fosil, ini merupakan dampak negatif yang besar terhadap perubahan iklim, belum lagi berbahaya di titik lain dalam rantai pasokan hidrokarbon.
Pembelajaran mesin juga dapat membuat distribusi dan penggunaan listrik jauh lebih efisien serta bekerja untuk memecahkan masalah dalam keanekaragaman hayati, penelitian lingkungan, pengelolaan sumber daya, dll.. AI dalam beberapa hal yang sangat mendasar adalah teknologi yang berfokus pada efisiensi, dan efisiensi energi adalah salah satu cara bahwa kemampuannya dapat diarahkan.
Secara seimbang, sepertinya AI bisa menjadi hal yang sangat positif bagi lingkungan [6]—tetapi hanya jika benar-benar diarahkan untuk tujuan positif tersebut, dan tidak hanya untuk mengonsumsi energi untuk penggunaan yang lain.
9. Mengotomasi Etika
Salah satu kekuatan AI adalah dapat mengotomatiskan pengambilan keputusan, sehingga mengurangi beban manusia dan mempercepat – berpotensi sangat mempercepat – beberapa jenis proses pengambilan keputusan. Namun, otomatisasi pengambilan keputusan ini akan menimbulkan masalah besar bagi masyarakat, karena jika keputusan otomatis ini baik, masyarakat akan diuntungkan, tetapi jika buruk, masyarakat akan dirugikan.
Karena agen AI diberi lebih banyak kekuatan untuk membuat keputusan, mereka perlu memiliki semacam standar etika yang dikodekan ke dalamnya. Tidak ada jalan lain: proses pengambilan keputusan etis mungkin sesederhana mengikuti program untuk mendistribusikan manfaat secara adil, di mana keputusan dibuat oleh manusia dan dijalankan oleh algoritma, tetapi juga mungkin memerlukan analisis etika yang jauh lebih rinci, bahkan jika kita manusia lebih suka tidak melakukannya—ini karena AI akan beroperasi jauh lebih cepat daripada yang dapat dilakukan manusia, sehingga dalam keadaan tertentu manusia akan tertinggal "di luar kendali" karena kelambatan manusia. Ini sudah terjadi dengan serangan dunia maya, dan perdagangan frekuensi tinggi (keduanya dipenuhi dengan pertanyaan etis yang biasanya diabaikan) dan itu hanya akan menjadi lebih buruk ketika AI memperluas perannya dalam masyarakat.
Karena AI bisa sangat kuat, standar etika yang kita berikan padanya sebaiknya adalah yang baik.
10. Penurunan kemampuan & Kelemahan Moral
Jika kita menyerahkan kapasitas pengambilan keputusan kita ke mesin, kita akan menjadi kurang berpengalaman dalam membuat keputusan. Misalnya, ini adalah fenomena yang terkenal di kalangan pilot maskapai penerbangan: autopilot dapat melakukan segalanya tentang menerbangkan pesawat, mulai dari lepas landas hingga mendarat, tetapi pilot dengan sengaja memilih untuk mengontrol pesawat secara manual pada waktu-waktu penting (mis. lepas landas dan pendaratan) untuk mempertahankan keterampilan penerbangan mereka.
Karena salah satu kegunaan AI adalah untuk membantu atau menggantikan manusia dalam membuat jenis keputusan tertentu (mis. mengeja, mengemudi, perdagangan saham, dll.), kita harus menyadari bahwa manusia dapat menjadi lebih buruk dalam keterampilan ini. Dalam bentuknya yang paling ekstrem, jika AI mulai membuat keputusan etis dan politik untuk kita, etika dan politik kita akan menjadi lebih buruk. Kita mungkin mengurangi atau menghambat perkembangan moral kita justru pada saat kekuatan kita menjadi yang terbesar dan keputusan kita menjadi yang paling penting.
Ini berarti bahwa studi tentang etika dan pelatihan etika sekarang menjadi lebih penting dari sebelumnya. Kita harus menentukan cara-cara di mana AI benar-benar dapat meningkatkan pembelajaran dan pelatihan etis kita. Kita tidak boleh membiarkan diri kita menjadi menurun dan lemah dalam etika, atau ketika teknologi kita akhirnya memberi kita pilihan sulit untuk dibuat dan masalah yang harus kita selesaikan—pilihan dan masalah yang, mungkin, nenek moyang kita mampu pecahkan—manusia masa depan mungkin tidak dapat melakukannya.
Untuk informasi lebih lanjut tentang penurunan kemampuan, lihat artikel ini [7] dan artikel asli Shannon Vallor tentang topik tersebut [8].
11. Kesadaran, Kepribadian, dan -- Hak Robot -- AI
Beberapa pemikir bertanya-tanya apakah AI pada akhirnya akan menjadi sadar diri, mencapai kemauannya sendiri, atau pantas mendapatkan pengakuan sebagai pribadi seperti kita. Sesuai dengan hukum, kepribadian telah diberikan kepada perusahaan dan sungai (di negara lain), jadi tentu saja tidak perlu ada kesadaran bahkan sebelum pertanyaan hukum muncul.
Berbicara secara moral, kita dapat mengantisipasi bahwa para ahli teknologi akan berusaha membuat AI dan robot yang paling mirip manusia, dan mungkin suatu hari nanti mereka akan menjadi tiruan yang bagus sehingga kita akan bertanya-tanya apakah mereka mungkin sadar dan pantas mendapatkan hak — dan kita mungkin tidak dapat menentukan ini secara meyakinkan. Jika manusia pada masa depan menyimpulkan AI dan robot mungkin layak untuk status moral, maka kita harus berhati-hati dan memberikannya.
Di tengah ketidakpastian tentang status buatan kita ini, yang akan kita ketahui adalah bahwa kita manusia memiliki karakter moral dan, mengikuti kutipan Aristoteles yang ambigu, "kita menjadi apa yang kita lakukan berulang kali" [9]. Jadi kita tidak boleh memperlakukan AI dan robot dengan buruk, atau kita mungkin membiasakan diri untuk memiliki karakter yang cacat, terlepas dari status moral makhluk buatan yang berinteraksi dengan kita. Dengan kata lain, terlepas dari status AI dan robot, demi karakter moral kita sendiri, kita harus memperlakukan mereka dengan baik, atau setidaknya tidak menyalahgunakannya.
12. AGI (Kecerdasan Buatan Umum) dan Kecerdasan Super
Jika atau ketika AI mencapai tingkat kecerdasan manusia, melakukan semua yang dapat dilakukan manusia sebaik yang dapat dilakukan manusia pada umumnya, maka itu akan menjadi Kecerdasan Buatan Umum — AGI — dan itu akan menjadi satu-satunya kecerdasan lain yang ada di bumi pada tingkat manusia.
Jika atau ketika AGI melampaui kecerdasan manusia, itu akan menjadi kecerdasan super, entitas yang berpotensi jauh lebih pintar dan mampu daripada kita: sesuatu yang hanya pernah dikaitkan manusia dalam agama, mitos, dan cerita.
Yang penting di sini, teknologi AI meningkat dengan sangat cepat. Perusahaan dan pemerintah global berlomba untuk mengklaim kekuatan AI sebagai milik mereka. Sama pentingnya, tidak ada alasan mengapa peningkatan AI akan berhenti di AGI. AI dapat diskalakan dan cepat. Tidak seperti otak manusia, jika kita memberi AI lebih banyak perangkat keras, AI akan bekerja lebih banyak, lebih cepat, dan lebih cepat lagi.
Munculnya AGI atau kecerdasan super akan menandai tergesernya umat manusia sebagai makhluk paling cerdas di bumi. Kita tidak pernah menghadapi (di dunia material) sesuatu yang lebih pintar dari kita sebelumnya. Setiap kali Homo sapiens bertemu dengan spesies manusia cerdas lainnya dalam sejarah kehidupan di bumi, spesies lain tersebut secara genetik bergabung dengan kita (seperti yang dilakukan Neanderthal) atau punah. Saat kita menghadapi AGI dan kecerdasan super, kita harus mengingatnya; tetapi, karena AI adalah alat, mungkin masih ada cara untuk mempertahankan keseimbangan etis antara manusia dan mesin.
13. Ketergantungan pada AI
Manusia bergantung pada teknologi. Kita selalu begitu, sejak kita menjadi "manusia;" ketergantungan teknologi kita hampir mendefinisikan kita sebagai spesies. Apa yang dulunya hanya berupa batu, tongkat, dan pakaian bulu kini menjadi jauh lebih kompleks dan rapuh. Padamnya listrik atau hilangnya konektivitas seluler bisa menjadi masalah serius, secara psikologis atau bahkan medis (jika ada keadaan darurat). Dan tidak ada ketergantungan seperti ketergantungan kecerdasan.
Ketergantungan kecerdasan adalah bentuk ketergantungan seperti seorang anak kepada orang dewasa. Sebagian besar waktu, anak-anak bergantung pada orang dewasa untuk berpikir bagi mereka, dan pada masa tua kita, karena beberapa orang mengalami penurunan kognitif, orang tua juga bergantung pada orang dewasa yang lebih muda. Sekarang bayangkan orang dewasa paruh baya yang merawat anak-anak dan orang tua bergantung pada AI untuk membimbing mereka. Tidak akan ada manusia -- dewasa -- yang tersisa—hanya -- AI dewasa-. Umat manusia akan menjadi ras anak-anak bagi pengasuh AI kita.
Ini, tentu saja, menimbulkan pertanyaan tentang apa yang akan dilakukan ras manusia yang kekanak-kanakan jika orang tua AI kita tidak berfungsi. Tanpa AI itu, jika bergantung padanya, kita bisa menjadi seperti anak hilang yang tidak tahu bagaimana menjaga diri sendiri atau masyarakat teknologi kita. -Kehilangan -- ini sudah terjadi ketika aplikasi navigasi smartphone tidak berfungsi (atau baterai habis), misalnya.
Kita sudah berada jauh di jalan menuju ketergantungan teknologi. Bagaimana kita bisa mempersiapkan diri sekarang agar kita dapat menghindari bahaya ketergantungan kecerdasan khususnya pada AI?
14. Kecanduan Bertenaga-AI
Pembuat aplikasi smartphone telah mengubah kecanduan menjadi ilmu pengetahuan, dan video game serta aplikasi bertenaga-AI dapat membuat ketagihan seperti narkoba. AI dapat mengeksploitasi banyak keinginan dan kelemahan manusia termasuk pencarian tujuan, perjudian, keserakahan, libido, kekerasan, dan sebagainya.
Kecanduan tidak hanya memanipulasi dan mengendalikan kita; itu juga menghalangi kita untuk melakukan hal-hal lain yang lebih penting—pendidikan, ekonomi, dan sosial. Itu memperbudak kita dan membuang-buang waktu kita ketika kita bisa melakukan sesuatu yang berharga. Dengan AI yang terus-menerus mempelajari lebih banyak tentang kita dan bekerja lebih keras untuk membuat kita terus mengklik dan menggulir, harapan apa yang ada bagi kita untuk melepaskan diri dari cengkeramannya? Atau, lebih tepatnya, cengkeraman pembuat aplikasi yang membuat AI ini untuk menjebak kita—karena bukan AI yang memilih untuk memperlakukan orang seperti ini, melainkan orang lain.
Ketika saya berbicara tentang topik ini dengan sekelompok siswa mana pun, saya menemukan bahwa mereka semua "kecanduan" pada satu aplikasi atau lainnya. Ini mungkin bukan kecanduan klinis, tetapi begitulah cara para siswa mendefinisikannya, dan mereka tahu bahwa mereka sedang dieksploitasi dan dirugikan. Ini adalah sesuatu yang harus dihentikan oleh pembuat aplikasi: AI tidak boleh dirancang untuk secara sengaja mengeksploitasi kerentanan dalam psikologi manusia.
15. Keterasingan dan Kesepian
Masyarakat berada dalam krisis kesepian. Sebagai contoh, baru-baru ini sebuah penelitian menemukan bahwa -- 200.000 orang lanjut usia di Inggris tidak melakukan percakapan dengan teman atau kerabat selama lebih dari sebulan- [10]. Ini adalah keadaan yang menyedihkan karena kesepian benar-benar dapat membunuh [11]. Ini adalah mimpi buruk kesehatan masyarakat, belum lagi merusak tatanan masyarakat: hubungan manusia kita. Teknologi telah terlibat dalam begitu banyak tren sosial dan psikologis yang negatif, termasuk kesepian, isolasi, depresi, stres, dan kecemasan, sehingga mudah untuk melupakan bahwa segala sesuatunya bisa berbeda, dan sebenarnya sangat berbeda hanya beberapa dekade yang lalu.
Orang mungkin berpikir bahwa media "sosial", smartphone, dan AI dapat membantu, tetapi sebenarnya mereka adalah penyebab utama kesepian karena orang-orang lebih sering berhadapan dengan layar daripada satu sama lain. Apa yang membantu adalah hubungan tatap muka yang kuat, tepatnya hubungan yang didorong oleh teknologi yang membuat ketagihan (sering kali bertenaga AI).
Kesepian dapat dibantu dengan melepaskan perangkat dan membangun hubungan tatap muka yang berkualitas. Dengan kata lain: peduli.
Ini mungkin bukan pekerjaan mudah dan tentunya di tingkat masyarakat mungkin sangat sulit untuk menolak tren yang telah kita ikuti selama ini. Tapi kita harus melawan, karena dunia yang lebih baik dan lebih manusiawi itu mungkin. Teknologi tidak harus membuat dunia menjadi tempat yang kurang personal dan peduli—teknologi bisa melakukan sebaliknya, jika kita menginginkannya.
16. Efek pada Jiwa Manusia
Semua bidang minat di atas akan berpengaruh pada bagaimana manusia memandang diri mereka sendiri, berhubungan satu sama lain, dan menjalani kehidupan mereka. Tapi ada pertanyaan yang lebih eksistensial juga. Jika tujuan dan identitas umat manusia ada hubungannya dengan kecerdasan kita (seperti yang diyakini oleh beberapa filsuf Yunani terkemuka, misalnya), maka dengan mengeksternalisasi/mewujudkan kecerdasan kita dan meningkatkannya melampaui kecerdasan manusia, apakah kita menjadikan diri kita makhluk kelas dua dari ciptaan kita sendiri?
Ini adalah pertanyaan yang lebih dalam dengan kecerdasan buatan yang menurunkan pentingnya kemanusiaan kita, ke wilayah yang secara tradisional diperuntukkan bagi filsafat, spiritualitas, dan agama. Apa yang akan terjadi pada jiwa manusia jika atau ketika kita dikalahkan oleh ciptaan kita sendiri dalam segala hal yang kita lakukan? Akankah hidup manusia kehilangan makna? Akankah kita sampai pada penemuan baru tentang identitas kita di luar kecerdasan kita?
Mungkin kecerdasan tidak sepenting identitas kita seperti yang mungkin kita pikirkan, dan mungkin menyerahkan kecerdasan ke mesin akan membantu kita menyadarinya. Sebaliknya, jika kita menemukan kemanusiaan kita bukan di dalam otak kita, tetapi di dalam hati kita, mungkin kita akan menyadari bahwa kepedulian, kasih sayang, kebaikan, dan cinta pada akhirnya adalah apa yang membuat kita menjadi manusia dan apa yang membuat hidup layak untuk dijalani. Mungkin dengan menghilangkan sebagian dari kejenuhan hidup, AI dapat membantu kita memenuhi visi dunia yang lebih manusiawi ini.
Kesimpulan
Ada lebih banyak masalah dalam etika AI; di sini saya baru saja mencoba menunjukkan beberapa yang utama. Lebih banyak waktu dapat digunakan untuk membahas topik-topik seperti pengawasan yang didukung AI, peran AI dalam memperbaiki informasi yang salah dan pemalsuan informasi, peran AI dalam politik dan hubungan internasional, tata kelola AI, dan sebagainya.
Teknologi baru selalu diciptakan demi sesuatu yang baik—dan AI memberi kita kemampuan baru yang luar biasa untuk membantu orang dan membuat dunia menjadi tempat yang lebih baik. Tetapi untuk membuat dunia menjadi tempat yang lebih baik, kita perlu memilih untuk melakukannya, sesuai dengan etika.
Melalui upaya bersama dari banyak individu dan organisasi, kita berharap teknologi AI akan membantu kita membuat dunia yang lebih baik.
(t/Jing-jing)
Artikel ini disusun berdasarkan karya-karya sebelumnya: -AI: Ethical Challenges and a Fast Approaching Future- (Okt. 2017) [12], -Some Ethical and Theological Reflections on Artificial Intelligence,- (Nov. 2017) [13], Artificial Intelligence and Ethics: Ten areas of interest (Nov. 2017) [1], -AI and Ethics- (Mar. 2018) [14], -Ethical Reflections on Artificial Intelligence-(Aug. 2018) [15], dan beberapa presentasi tentang -- Artificial Intelligence and Ethics: Sixteen Issues- (2019-20) [3].
Referensi
[1] Brian Patrick Green, -Artificial Intelligence and Ethics: Ten areas of interest,- situs web Markkula Center for Applied Ethics, 21 November 2017.
[2] Awalnya diparafrasekan dalam Stan Lee dan Steve Ditko, -Spider-Man,- Amazing Fantasy vol. 1, #15 (Agustus 1962), frasa persis dari Uncle Ben di J. Michael Straczynski, Amazing Spider-Man vol. 2, #38 (Februari 2002). Untuk informasi lebih lanjut: https://en.wikipedia.org/wiki/With_great_power_comes_great_responsibility
[3] Brian Patrick Green, -Artificial Intelligence and Ethics: Sixteen Issues,- berbagai lokasi dan tanggal: Los Angeles, Mexico City, San Francisco, Universitas Santa Clara (2019-2020).
[4] Bob Yirka, -Computer generated math proof is too large for humans to check,- Phys.org, 19 Februari 2014, tersedia di: https://phys.org/news/2014-02-math-proof-large-humans.html
[5] The Partnership on AI to Benefit People and Society, Pertemuan Pengukuhan, Berlin, Jerman, 23-24 Oktober 2017.
[6]Leila Scola, -AI and the Ethics of Energy Efficiency,- situs Markkula Center for Applied Ethics, 26 Mei 2020, tersedia di: https://www.scu.edu/environmental-ethics/resources/ai-and-the-ethics-of-energy-efficiency/
[7] Brian Patrick Green, -Artificial Intelligence, Decision-Making, and Moral Deskilling,- situs Markkula Center for Applied Ethics, 15 Maret 2019, tersedia di: https://www.scu.edu/ethics/focus-areas /technology-ethics/resources/artificial-intelligence-decision-making-and-moral-deskilling/
[8] Shannon Vallor, -Moral Deskilling and Upskilling in a New Machine Age: Reflections on the Ambiguous Future of Character.- Philosophy of Technology 28 (2015):107–124., tersedia di: https://link.springer.com/article/10.1007/s13347-014-0156-9
[9] Brad Sylvester, -Fact Check: Did Aristotle Say, ‘We Are What We Repeatedly Do’?- Periksa situs web Fakta Anda, 26 Juni 2019, tersedia di: https://checkyourfact.com/2019/06/26/fact-check-aristotle-excellence-habit-repeatedly-do/
[10] Lee Mannion, -Britain appoints minister for loneliness amid growing isolation,- Reuters, 17 Januari 2018, tersedia di: https://www.reuters.com/article/us-britain-politics-health/britain-appoints -minister-for-loneliness-amid-growing-isolation-idUSKBN1F61I6
[11] Julianne Holt-Lunstad, Timothy B. Smith, Mark Baker, Tyler Harris, dan David Stephenson, -Loneliness and Social Isolation as Risk Factors for Mortality: A Meta-Analytic Review,- Perspectives on Psychological Science 10(2) (2015): 227–237, tersedia di: https://journals.sagepub.com/doi/full/10.1177/1745691614568352
[12] Markkula Center for Applied Ethics Staff, -AI: Ethical Challenges and a Fast Approaching Future: A panel discussion on artificial intelligence,- bersama Maya Ackerman, Sanjiv Das, Brian Green, dan Irina Raicu, Universitas Santa Clara, California, Oktober 24, 2017, diposting ke All About Ethics Blog, 31 Okt 2017, video tersedia di: https://www.scu.edu/ethics/all-about-ethics/ai-ethical-challenges-and-a-fast-approaching-future/
[13] Brian Patrick Green, -Some Ethical and Theological Reflections on Artificial Intelligence,- pertemuan Pacific Coast Theological Society (PCTS), Graduate Theological Union, Berkeley, 3-4 November, 2017, tersedia di: http://www.pcts .org/meetings/2017/PCTS2017Nov-Green-ReflectionsAI.pdf
[14] Brian Patrick Green, -AI and Ethics,- kuliah tamu di PACS003: What is an Ethical Life?, University of the Pacific, Stockton, 21 Maret 2018.
[15] Brian Patrick Green, -Ethical Reflections on Artificial Intelligence,- Scientia et Fides 6(2), 24 Agustus 2018. Tersedia di: http://apcz.umk.pl/czasopisma/index.php/SetF/article/ lihat/SetF.2018.015/15729
Terima kasih kepada banyak orang atas semua umpan balik bermanfaat yang telah membantu saya mengembangkan daftar ini, termasuk Maya Ackermann, Kirk Bresniker, Sanjiv Das, Kirk Hanson, Brian Klunk, Thane Kreiner, Angelus McNally, Irina Raicu, Leila Scola, Lili Tavlan, Shannon Vallor, karyawan beberapa perusahaan teknologi, peserta pertemuan PCTS Musim Gugur 2017, peserta pertemuan pendidikan yang dibutuhkan, beberapa peninjau anonim, profesor dan mahasiswa PACS003 di Universitas Pasifik, siswa ENGR 344 saya: Kursus AI dan Etika, serta masih banyak lagi.
Diterjemahkan dari: