Di dunia teknologi, ada semacam aturan tidak tertulis yang dipercaya banyak bos besar: “Kalau bingung soal teknologi baru, tanya sama anak muda.”
Masuk akal, bukan? Generasi Z dan milenial muda tumbuh dengan gadget di tangan. Mereka yang mengajari kita cara main TikTok, cara pakai filter Instagram, atau cara share screen di Zoom saat pandemi dulu. Fenomena ini sering disebut reverse mentoring.
Jadi, ketika gelombang Generative AI (GenAI) seperti ChatGPT meledak, refleks para eksekutif dan manajer senior adalah kembali menoleh ke staf junior mereka. “Eh, tolong ajarin saya cara pakai AI ini buat bikin laporan, dong,” mungkin begitu bunyinya.
Tapi, sebuah studi terbaru yang mengejutkan dari MIT Sloan School of Management menampar keras anggapan ini. Riset tersebut dengan tegas menyatakan: Jangan mengandalkan staf junior untuk mengajari Anda strategi Generative AI.
Hal ini berbahaya.
Mengapa strategi yang berhasil untuk media sosial gagal total untuk AI? Dan jika anak muda yang tech-savvy saja tidak bisa diandalkan, lalu siapa yang harus memimpin transformasi ini?
Mari kita bedah riset ini secara mendalam agar Anda tidak tersesat dalam hype teknologi.
Daftar Isi
ToggleMitos “Digital Native” dalam Konteks AI
Mari kita luruskan satu hal. Staf junior (mereka yang memiliki pengalaman 1-2 tahun) memang jagonya eksperimen.
Menurut Profesor Kate Kellogg dari MIT Sloan, para profesional muda ini adalah yang pertama kali terjun dan mengutak-atik teknologi baru. Mereka berani mencoba, melakukan trial and error, dan menemukan trik-trik cepat untuk menyelesaikan tugas harian mereka.

Karena keberanian ini, manajemen atas sering menganggap mereka sebagai sumber keahlian.
Riset terdahulu dari Matthew Beane (PhD ’17) bahkan mendukung ide bahwa pemimpin sering mencari bimbingan junior karena juniorlah yang paling dekat dengan eksekusi teknis pekerjaan.
Namun, Generative AI adalah sesuatu yang berbeda.
Dalam studi yang dilakukan MIT Sloan bersama Boston Consulting Group (BCG), para peneliti menemukan bahwa Generative AI membawa risiko baru yang unik, seperti akurasi yang meragukan (halusinasi), kemampuan yang tidak pasti, dan laju perubahan yang eksponensial.
Profesor Kellogg menegaskan, “Meskipun mereka (junior) bereksperimen lebih dulu, mereka bukan ahli mengenai risiko baru yang ditimbulkan oleh Generative AI”.
Mengandalkan mereka untuk strategi perusahaan sama saja seperti meminta orang yang baru belajar menyetir untuk mendesain sistem lalu lintas kota.
Mereka tahu cara menginjak gas, tapi mereka belum paham bahaya di setiap persimpangan.
Tiga Alasan Mengapa Junior Gagal Menjadi Mentor AI
Studi ini melakukan wawancara mendalam dengan konsultan junior yang diberi akses ke GPT-4 untuk memecahkan masalah bisnis. Hasilnya mengungkap tiga hambatan utama mengapa transfer knowledge dari junior ke senior tidak berjalan mulus dalam kasus GenAI.
1. Pemahaman yang Dangkal akan Risiko
Hambatan pertama dan yang paling krusial adalah kurangnya pemahaman mendalam tentang kapabilitas Generative AI di kalangan staf junior.
Para junior sering kali terpesona oleh hasil instan. Ketika AI memberikan jawaban yang terlihat cerdas, mereka cenderung menerimanya.
Padahal, manajer dengan pengalaman 5 tahun lebih biasanya langsung khawatir tentang aspek validitas: akurasi, eksplanabilitas (bisakah AI menjelaskan kenapa jawabannya begitu?), dan relevansi.
Junior mungkin tahu cara prompting agar AI menulis email yang sopan, tapi mereka sering gagal memahami bagaimana model bahasa besar (LLM) bekerja di balik layar dan di mana letak bias datanya.
2. Fokus pada Rutinitas Manusia, Bukan Desain Sistem
Ketika ditanya bagaimana cara memitigasi risiko kesalahan AI, apa solusi yang ditawarkan staf junior?
Mereka menyarankan perubahan pada rutinitas manusia. Contoh sarannya: “Nanti Bapak cek lagi ya hasil dari AI-nya,” atau “Kita bikin kesepakatan tim dulu kapan boleh pakai AI.”
Kedengarannya masuk akal untuk skala kecil. Tapi untuk skala perusahaan? Ini tidak bisa diskalakan (not scalable).
Anda tidak bisa membangun strategi AI perusahaan hanya dengan mengandalkan ketelitian manusia untuk memeriksa ulang setiap kata yang dihasilkan mesin.
Manusia lelah, manusia luput. Solusi yang dibutuhkan adalah pada level desain sistem, bukan sekadar SOP manual.
3. Jebakan Solusi Level Proyek
Hambatan ketiga adalah fokus yang terlalu sempit. Junior cenderung hanya melihat masalah di depan mata mereka, yaitu di level proyek.
Hila Lifshitz, profesor dari Warwick Business School yang turut menulis studi ini, menjelaskan fenomena ini dengan sangat baik: “Junior yang bekerja di level proyek dengan manajer mereka sangat mungkin berpikir untuk mengatasi tantangan hanya di level itu saja”.
Padahal, Generative AI menarik data dari ekosistem yang luas. Risiko yang muncul tidak bisa dibendung hanya dengan intervensi di level input proyek.
Jika data dasarnya bias, atau jika modelnya tidak aman, tidak peduli seberapa bagus prompt yang dibuat junior Anda, hasilnya akan tetap berisiko bagi perusahaan.
Solusi Sebenarnya: Intervensi di 3 Level
Jika kita tidak bisa sekadar meniru trik junior, apa yang harus dilakukan pemimpin organisasi?
Riset MIT Sloan ini menyarankan pergeseran fokus dari sekadar eksperimen interaksi manusia-komputer menjadi pendekatan sistemik yang menyeluruh.
Jangan hanya belajar prompting. Pemimpin harus melakukan mitigasi risiko di tiga level strategis:
Level 1: Perubahan Desain Sistem (System Design)
Alih-alih menyuruh karyawan mengecek manual, ubahlah sistemnya.
- Lakukan fine-tuning parameter model menggunakan data khusus perusahaan yang terverifikasi.
- Bangun antarmuka (interface) yang bisa memvisualisasikan ketidakpastian, sehingga pengguna tahu jika AI sedang “ragu-ragu”.
- Desain sistem yang mewajibkan pengguna mengomunikasikan tujuan dan preferensi mereka secara jelas di awal.
Level 2: Intervensi Level Perusahaan (Firm Level)
Jangan biarkan setiap karyawan berjuang sendirian.
- Buatlah perpustakaan prompt (prompt library) yang berisi prompt efektif yang sudah teruji untuk tugas-tugas spesifik.
- Lakukan monitoring terus-menerus terhadap keselarasan (alignment) output LLM dengan metrik evaluasi perusahaan.
- Bangun mekanisme pelaporan insiden jika AI menghasilkan output yang berbahaya atau salah.
Level 3: Intervensi Level Ekosistem (Ecosystem Level)
Ini yang paling jarang dipikirkan junior. Pemimpin harus berinteraksi langsung dengan pengembang/developer AI.
- Tuntut spesifikasi persyaratan yang jelas mengenai kapabilitas dan batasan sistem.
- Minta penilaian tentang kualitas, ketahanan (robustness), dan representasi sumber data yang digunakan developer.
- Aktif menandai dan mengoreksi output menyesatkan di level sistem.
Kesimpulan: Saatnya Pemimpin Kembali Memimpin

Pesan dari Kate Kellogg sangat jelas: “Hanya mengharapkan profesional muda untuk belajar menggunakan alat AI lewat trial and error, lalu mewariskan tips dan trik mereka ke senior, tidak akan menjembatani kesenjangan pembelajaran yang dibutuhkan”.
Generative AI bukanlah mainan media sosial. Ini adalah infrastruktur pengetahuan.
Sebagai pemimpin atau profesional senior, Anda tidak boleh malas belajar dan hanya menyerahkan kunci kerajaan AI kepada anak magang.
Anda harus turun tangan—bukan untuk belajar trik prompting receh, tapi untuk bereksperimen dengan perubahan pada data, model, dan infrastruktur.
source : https://mitsloan.mit.edu/press/no-shortcuts-generative-ai-upskilling






