- Paradoks “Sambutan AI” dan “Ketidakpercayaan” dalam Industri Perundingan
- “3 Jenis Ketelusan” yang Sebenarnya Diinginkan Klien
- Rangka Kerja Praktikal: “Senarai Semak Kebolehpercayaan” untuk Perundingan Penggunaan AI
- Belajar dari Kes Terkehadapan: Arah yang Ditunjukkan oleh “GenAI HR Awards” GUGA
- Langkah Seterusnya sebagai Pengurus: Memupuk Mata untuk Menilai “Kualiti” Penggunaan AI
Paradoks “Sambutan AI” dan “Ketidakpercayaan” dalam Industri Perundingan
Satu anjakan paradigma sedang berlaku secara senyap dalam industri perundingan. Menurut laporan Diamond Online, sebanyak 67% syarikat besar yang memberikan pesanan menyatakan mereka “sangat menyambut baik” penggunaan AI oleh firma perunding. Ini menunjukkan AI telah berkembang daripada sekadar alat dalaman kepada elemen yang mentakrifkan semula hubungan dengan klien.
Namun, di sebalik suasana sambutan ini, wujud “permintaan ketat” daripada klien. Proses dan hasil kerja perundingan yang menggunakan AI kini dikaji dengan lebih teliti daripada sebelumnya. Dari perspektif pengurus atau CTO yang menggunakan perunding luar, ini adalah satu akibat yang wajar.
Dari sudut pengalaman menggunakan AI dalaman yang berjaya mengurangkan 1,550 jam kerja setahun dan mencapai ROI 2,989%, potensi AI tidak dapat diragui. Namun, pada masa yang sama, kualiti output yang dijana oleh AI sangat bergantung pada data input dan reka bentuk prompt. Pemahaman asas inilah yang mendorong klien untuk “menyambut baik penggunaan AI” sambil mengemukakan “permintaan ketat”.
“3 Jenis Ketelusan” yang Sebenarnya Diinginkan Klien
Jadi, apakah permintaan spesifik yang dikemukakan? Dengan menyelidiki laporan dan berdasarkan pengalaman perundingan syarikat kami, kami mendapati tiga jenis ketelusan berikut adalah terasnya.
Ketelusan Proses: “Bagaimana” AI Digunakan
Ini adalah permintaan paling asas tetapi paling penting. Klien bimbang sama ada perunding hanya memberikan soalan kepada ChatGPT dan menyampaikan jawapan yang diterima secara terus. Apa yang diperlukan ialah “pendedahan proses” seperti sebab pemilihan alat AI, logik reka bentuk prompt, dan proses pengesahan hasil yang dijana.
Sebagai contoh, apabila saya menggunakan AI untuk semakan kontrak, saya sentiasa mendokumenkan dan berkongsi proses berikut dengan klien:
- Alat AI yang Digunakan: Claude 3.5 Sonnet (kerana kelebihannya dalam memahami dokumen undang-undang)
- Data Input: Teks penuh kontrak + pangkalan data undang-undang berkaitan
- Reka Bentuk Prompt: Arahan spesifik seperti “Ekstrak bahagian berisiko dari perspektif undang-undang anti-monopoli di Jepun”
- Pengesahan Manusia: Penilaian semula secara undang-undang oleh kakitangan berkelayakan peguam terhadap perkara yang ditunjukkan oleh AI
“Ketelusan proses” inilah langkah pertama untuk membina kepercayaan terhadap penggunaan AI.
Ketelusan Data: “Apa” yang Diberikan kepada AI
Kualiti output AI berkait langsung dengan kualiti data input. Klien berhak mengetahui bagaimana maklumat sulit syarikat mereka diberikan kepada AI dan bagaimana ia dilindungi. Kebimbangan ini menjadi lebih ketara terutamanya apabila menggunakan alat awam seperti ChatGPT OpenAI, di mana data mungkin digunakan untuk pembelajaran.
Penyelesaiannya jelas. Untuk projek yang sangat sulit, penggunaan “model AI yang beroperasi dalam persekitaran tempatan” yang menghalang kebocoran data atau “alat AI versi perusahaan” yang menjamin perlindungan data untuk syarikat adalah wajib. Kos bulanan mungkin beberapa kali ganda lebih tinggi daripada versi biasa (contoh: Pelan ChatGPT Team ialah $25 sebulan setiap pengguna), tetapi ini harus dianggap sebagai perbelanjaan yang diperlukan untuk membeli kepercayaan.
Ketelusan Nilai: “Sejauh Mana” Penggunaan AI Mempengaruhi Harga
Ini adalah isu yang paling sensitif. Apabila kecekapan operasi meningkat secara mendadak disebabkan AI, ke manakah penjimatan kos itu harus pergi? Jika firma perunding menikmati hasil peningkatan kecekapan dalaman secara eksklusif dan mengenakan bayaran yang sama seperti dahulu, klien akan merasa seperti “dikenakan bayaran dua kali”.
Pendekatan ideal ialah membina model yang secara terbuka mendedahkan peningkatan kecekapan melalui penggunaan AI dan berkongsi manfaatnya dengan klien. Sebagai contoh, cadangan seperti “Analisis awal menggunakan AI membolehkan diagnosis keadaan selesai dalam separuh masa berbanding kaedah konvensional. Oleh itu, yuran dikurangkan 20%, atau sumber diagihkan untuk analisis mendalam tambahan” boleh dipertimbangkan.
Rangka Kerja Praktikal: “Senarai Semak Kebolehpercayaan” untuk Perundingan Penggunaan AI
Apakah yang perlu disemak secara spesifik oleh pengurus atau CTO semasa memilih dan menilai perunding luar? Rujuk senarai semak berikut.
Perkara untuk Disemak Semasa Pemilihan
- Pendokumenan Dasar Penggunaan AI: Adakah syarikat menerbitkan polisi penggunaan AI mereka?
- Pendedahan Susunan Alat: Alat AI spesifik mana (seperti Claude, ChatGPT Enterprise, model pembangunan sendiri, dll.) yang akan digunakan?
- Langkah Keselamatan Data: Klausa kontrak spesifik mengenai pengendalian maklumat sulit
- Definisi Tahap Penglibatan Manusia: Apakah jenis pengesahan/penyuntingan oleh pakar yang dilakukan terhadap output AI?
Titik Penilaian Semasa Projek Berjalan
- Penyerahan Laporan Proses Berkala: Adakah kemajuan analisis menggunakan AI dan ringkasan prompt yang digunakan dikongsi?
- Penyediaan Alternatif: Adakah cadangan utama yang dijana oleh AI juga disertakan dengan hasil pengesahan dari sudut berbeza oleh pakar manusia?
- Penjelasan Struktur Kos: Bagaimanakah peningkatan kecekapan melalui penggunaan AI mempengaruhi output dan kos projek?
Belajar dari Kes Terkehadapan: Arah yang Ditunjukkan oleh “GenAI HR Awards” GUGA
Aliran ketelusan ini tidak terhad kepada industri perundingan sahaja. “GenAI HR Awards 2026” yang dianjurkan oleh GUGA adalah usaha untuk mengiktiraf kes terkehadapan penggunaan AI dalam strategi modal insan. Apa yang dinilai di sini bukan sekadar fakta “menggunakan AI”, tetapi kedua-dua aspek proses dan hasil: “bagaimana AI digunakan dan nilai modal insan apa yang dihasilkan”.
Apa yang dicadangkan oleh anugerah ini ialah piawaian penilaian kematangan penggunaan AI sedang beralih daripada pelaksanaan alat kepada “kualiti proses penciptaan nilai”. Perkara yang sama berlaku dalam perundingan, dan boleh diramalkan bahawa era di mana “metodologi” penggunaan AI itu sendiri menjadi faktor pembeza akan tiba.
Langkah Seterusnya sebagai Pengurus: Memupuk Mata untuk Menilai “Kualiti” Penggunaan AI
Untuk menggunakan perundingan era AI dengan berkesan, adalah penting bagi pengurus sendiri memahami mekanisme asas dan batasan AI. Ini tidak memerlukan pengetahuan teknikal yang tinggi. Memahami tiga perkara berikut sudah memadai.
Pertama, AI adalah alat yang menjana jawapan secara “probabilistik”. Walaupun soalan yang sama, jawapan boleh berbeza disebabkan perbezaan kecil dalam prompt. Kedua, output AI sentiasa memerlukan “pengesahan fakta”. Terutamanya untuk data berangka atau tafsiran undang-undang, pengesahan dengan sumber utama adalah wajib. Ketiga, penggunaan AI yang cemerlang terhasil daripada “kerjasama manusia dan AI”. Daripada menyerahkan segalanya kepada AI, adalah penting untuk mempunyai kitaran di mana pakar manusia menentukan hala tuju, AI melaksanakannya, dan manusia mengesah dan melaraskan hasilnya.
Pengalaman menggunakan AI dalam operasi syarikat sendiri adalah senjata yang kuat untuk menilai perunding luar. Kami mengesyorkan untuk memahami potensi dan batasan AI secara empirikal melalui amalan dalaman yang boleh dimulakan dengan kos alat AI sekitar RM21,000 sebulan. Pengalaman itu akan membantu memupuk mata yang tepat untuk menilai kualiti penggunaan AI dalam kontrak perundingan yang mahal.
Masa depan perundingan ditentukan bukan oleh “sama ada AI digunakan atau tidak”, tetapi oleh “kualiti dan ketelusan penggunaannya”. Dengan pengurus dan CTO sebagai klien menunjukkan piawaian penilaian baharu ini dengan jelas, hubungan perundingan yang benar-benar bernilai dalam era AI akan dapat dibina.


コメント