- “Tiada Baik atau Jahat” tetapi “Ada Tanggungjawab”: Inti Perdebatan Penggunaan Ketenteraan AI
- Belajar dari Kes Square Enix: Penyelesaian Realistik “Had Penggunaan”
- Kos dan Pelaksanaan: Langkah Konkrit yang Boleh Dimulakan oleh PKS Mulai Hari Ini
- Tanggungjawab Pengurusan: Tentukan “Had yang Dibenarkan,” Bukan “Kemungkinan” Teknologi
“Tiada Baik atau Jahat” tetapi “Ada Tanggungjawab”: Inti Perdebatan Penggunaan Ketenteraan AI
Konflik antara syarikat AI baharu AS, Anthropic, dan Jabatan Pertahanan AS telah dilaporkan. Syarikat itu dikatakan berpegang teguh pada pendiriannya untuk mengehadkan penggunaan model AI “Claude” untuk tujuan ketenteraan, dan terlibat dalam perbincangan sengit dengan kerajaan. Sementara itu, di peringkat domestik, terdapat tegahan bahawa “AI generatif tidak mempunyai baik atau jahat — tetapi pengurusan yang ‘tidak menentukan cara penggunaannya’ adalah bertanggungjawab.”
Pada pandangan pertama, ini mungkin kelihatan seperti isu dunia yang jauh. Namun, kedua-dua berita ini menonjolkan soalan yang sama yang ditujukan kepada semua pengurus syarikat: sama ada mereka telah menetapkan dengan jelas dasar asas “sejauh mana dan bagaimana syarikat anda membenarkan penggunaan AI.”
Adalah terlalu awal untuk berfikir bahawa contoh ekstrem seperti penggunaan ketenteraan tidak relevan untuk penggunaan perniagaan. Risiko seperti AI syarikat anda secara tidak sengaja menggalakkan pemilihan pekerjaan yang diskriminasi, digunakan untuk menghasilkan maklumat sulit pesaing, atau mencipta dokumen pemasaran palsu — wujud dalam semua syarikat yang memperkenalkan AI dengan dasar yang kabur. Konflik Anthropic melambangkan ketibaan era di mana pembangun AI terpaksa menarik garis pada penggunaan teknologi mereka. Dan itu adalah tadbir urus yang sama-sama diperlukan oleh syarikat yang “menggunakan” AI.
Belajar dari Kes Square Enix: Penyelesaian Realistik “Had Penggunaan”
Jadi, apa yang perlu dilakukan secara konkrit? Petunjuknya terletak pada kes Square Enix Holdings (Square Enix HD) yang juga menjadi berita. Syarikat itu telah meningkatkan kecekapan kerja “pembersihan dan penyelesaian ‘name’ (lakaran kasar pembahagian panel dan dialog)” dalam penyuntingan manga, yang sebelum ini mengambil masa kira-kira 3,000 jam setahun, dengan menggunakan AI.
Perkara penting di sini ialah penetapan kekangan yang jelas: “tidak mempelajari gaya seni.” Meniru gaya seni artis tertentu membawa risiko melanggar hak cipta dan menjejaskan kreativiti pencipta. Oleh itu, syarikat itu menghadkan penggunaan AI hanya untuk kerja bantuan penyuntingan seperti “menggariskan” dan “melekatkan tone.”
Ini adalah keputusan yang sangat bermaklumat. Walaupun potensi AI terletak pada keupayaannya untuk “melakukan apa sahaja,” nilai sebenar dalam perniagaan datang dari keputusan pengurusan untuk “menentukan apa yang tidak boleh dilakukannya.” Square Enix mengamalkan garis pemisah yang jelas: memaksimumkan keupayaan AI sambil tidak mencerobohi teras kreatif dan risiko undang-undang/etika.
Cuba fikirkan tentang syarikat anda sendiri. Jika memperkenalkan ChatGPT kepada jabatan jualan, adakah terdapat dasar seperti “membenarkan draf awal e-mel individu kepada pelanggan” tetapi “melarang penciptaan kes pelanggan atau data prestasi fiksyen”? Untuk jabatan sumber manusia, garis pemisah seperti “membenarkan penambahbaikan teks iklan pekerjaan” tetapi “melarang penjanaan automatik laporan analisis media sosial pemohon.”
5 Langkah Praktikal untuk Merangka “Dasar Penggunaan AI”
Dasar yang kabur tidak boleh dilaksanakan di lapangan. Berikut adalah langkah-langkah yang boleh dilaksanakan serta-merta untuk merangka dasar penggunaan AI.
1. Kenal Pasti Kawasan Risiko: Kategorikan operasi syarikat anda kepada “penyebaran maklumat,” “perkhidmatan pelanggan,” “penciptaan bahan dalaman,” “analisis data,” “pembangunan,” dsb., dan senaraikan risiko maksimum yang dijangkakan dalam setiap kawasan (kebocoran maklumat, pernyataan palsu, penggalakan diskriminasi, pelanggaran hak cipta, dsb.).
2>Buat Senarai Kebenaran Mengikut Alat: Tetapkan tahap kebenaran penggunaan untuk setiap alat dan jabatan, seperti “ChatGPT Enterprise dibenarkan untuk seluruh syarikat,” “AI penjanaan imej terhad kepada jabatan reka bentuk,” “AI penjanaan kod hanya untuk jabatan pembangunan.” Prinsipnya adalah melarang penggunaan tanpa had.
3. Peraturan Data Input: Ini adalah yang paling penting. Larang dengan jelas input maklumat sulit, maklumat peribadi, dan data pelanggan ke dalam alat AI. Malah, dalam pengendalian media ini, kami menggunakan versi tanpa nama maklumat sulit untuk semakan kontrak dan tidak memasukkan data mentah sama sekali.
4. Tetapkan Proses Pengesahan Output: Wajibkan bahawa dokumen, kod, dan keputusan analisis yang dihasilkan oleh AI mesti disahkan akhir oleh manusia. Terutama untuk kandungan yang disebarkan secara luaran atau data yang menjadi asas pembuatan keputusan, aliran kerja untuk mengesahkan sumber dan kewajarannya diperlukan.
5>Bina Mekanisme Semakan Berterusan: Teknologi AI dan peraturan berkaitan berubah dengan pantas. Wujudkan mekanisme untuk menyemak dasar setiap suku tahun dan memasukkan risiko dan amalan terbaik baharu.
Kos dan Pelaksanaan: Langkah Konkrit yang Boleh Dimulakan oleh PKS Mulai Hari Ini
Mungkin ada yang berkata, “Walaupun disebut tadbir urus, kami tiada sumber.” Namun, dengan menggunakan alat AI moden, ia boleh dilaksanakan dengan kos yang sangat rendah.
Pertama, AI itu sendiri boleh digunakan untuk merangka dasar. Sebagai contoh, jika anda memberikan arahan kepada Claude 3.5 Sonnet, “Syarikat kami adalah PKS pembuatan. Kami ingin mula menggunakan AI generatif dalam jabatan jualan dan pentadbiran. Sila buat draf dasar penggunaan untuk mengawal risiko,” ia boleh menghasilkan teks peruntukan konkrit yang sesuai dengan industri dalam beberapa minit. Kemudian, bahaskan dan perkayakannya dalam kalangan pengurusan.
Seterusnya, kawalan teknikal. Jika memperkenalkan ChatGPT Enterprise (sekitar $30/sebulan setiap pengguna) untuk seluruh syarikat, anda boleh menetapkan dari skrin pentadbir seperti “melumpuhkan fungsi tertentu” dan “menghadkan penghantaran data ke laman web luar.” Jika kawalan yang lebih terperinci diperlukan, pilih Microsoft Copilot for Microsoft 365 ($30/sebulan) untuk menggunakan mod “sembang untuk perniagaan” yang hanya membenarkan pembelajaran dan rujukan data dalam persekitaran Microsoft 365 syarikat anda, mengurangkan risiko kebocoran data dengan ketara.
Dari segi kos, adalah realistik untuk memperkenalkan secara berperingkat dari “ahli yang dibenarkan dalam jabatan yang dibenarkan” sebelum mengedarkan versi enterprise yang mahal kepada semua pekerja. Berdasarkan pengalaman perundingan kami, kes yang berjaya adalah di mana ketua bahagian belakang dan CTO memulakan projek perintis yang terhad terlebih dahulu untuk mengesahkan keberkesanan dasar.
Keputusan Anthropic Mengajar “Sumber Kelebihan Daya Saing”
Saya percaya bahawa di sebalik keutamaan Anthropic terhadap dasar syarikatnya berbanding kontrak kerajaan bukan hanya etika, tetapi juga pertimbangan strategi perniagaan. Ia adalah penubuhan nilai jenama “pembangun AI yang bertanggungjawab.”
Pengguna dan rakan perniagaan kini memberi perhatian bukan hanya pada keupayaan teknologi, tetapi juga falsafah pelaksanaannya dalam masyarakat. Menjelaskan dasar penggunaan AI syarikat sendiri dan menyampaikannya secara luaran bukan lagi kos pematuhan, tetapi boleh menjadi faktor pembezaan yang kuat untuk meningkatkan kebolehpercayaan syarikat dan menarik bakat terbaik serta pelanggan yang berkongsi visi yang sama.
“Syarikat kami menggunakan AI, tetapi untuk menghormati privasi dan kreativiti pelanggan secara maksimum, kami mengurusnya dengan ketat mengikut dasar berikut” — mesej seperti ini akan membentuk nilai perusahaan era akan datang.
Tanggungjawab Pengurusan: Tentukan “Had yang Dibenarkan,” Bukan “Kemungkinan” Teknologi
AI generatif tidak mempunyai baik atau jahat. Namun, kesan outputnya terhadap masyarakat jelas mempunyai baik dan jahat. Konflik Anthropic dan Jabatan Pertahanan, had penggunaan Square Enix, dan ulasan yang mempersoalkan tanggungjawab “pengurusan yang tidak menentukan cara penggunaan” semuanya membawa kepada kesimpulan yang sama.
AI adalah sumber pengurusan yang kuat. Namun, seperti semua sumber yang kuat, pengendaliannya memerlukan garis panduan yang jelas dan pengurusan berterusan. Apa yang diperlukan daripada pengurusan bukanlah bercakap tentang “kemungkinan” AI, tetapi dengan tegas menentukan “had yang dibenarkan” berdasarkan perniagaan dan nilai syarikat mereka.
Ini tidak boleh diserahkan sepenuhnya kepada jabatan teknologi. Pihak pengurusan tertinggi sendiri mempunyai tanggungjawab untuk memahami risiko, merangka dasar, dan menyerapkannya ke dalam organisasi. Perdebatan penggunaan ketenteraan AI menunjukkan kepada kita bahawa tiada siapa lagi boleh lari dari tanggungjawab ini.
Mungkin anda boleh bermula dengan meletakkan “Dasar Asas Penggunaan AI Syarikat (Draf)” sebagai agenda mesyuarat pengurusan seterusnya.


コメント