Kembali ke Blog

Antara Tegas dan Tergantung: Marah sebagai Bentuk Peduli & Bahaya Menjadikan AI sebagai Kebenaran Absolut

Di era modern, ada dua fenomena yang semakin sering muncul namun jarang dianalisis secara rasional:

  1. Orang yang mengingatkan dengan keras dianggap toxic
  2. AI dianggap selalu benar tanpa validasi

Keduanya terlihat tidak berkaitan, tapi sebenarnya memiliki satu akar yang sama:
ketidakmampuan membedakan antara kenyamanan dan kebenaran.


Marah atau Kasar: Apakah Selalu Negatif?

Secara umum, masyarakat mengasosiasikan kemarahan dengan hal buruk:

  • Tidak sopan
  • Emosional
  • Tidak profesional

Namun asumsi ini terlalu simplistik.

Tidak semua kemarahan itu destruktif.
Dalam banyak kasus, kemarahan justru merupakan bentuk alarm sosial.


Mengapa Orang Peduli Bisa Terdengar Kasar?

1. Urgensi Mengalahkan Kenyamanan

Ketika seseorang melihat risiko besar (kesalahan fatal, keputusan buruk, atau pola destruktif), respon yang muncul bukan lagi diplomasi, tapi intervensi cepat.

Contoh:

  • Mentor yang membentak karena kesalahan security di production
  • Orang tua yang keras karena anaknya mengambil keputusan berbahaya
  • Senior engineer yang “galak” saat code review buruk

Tujuannya bukan menyerang individu, tapi menghentikan kerusakan secepat mungkin.


2. Informasi yang Tidak Nyaman Lebih Sulit Disampaikan

Kebenaran seringkali tidak nyaman:

  • “Arsitektur kamu salah”
  • “Logika kamu flawed”
  • “Keputusan ini akan gagal”

Menyampaikan ini dengan halus sering tidak efektif, karena manusia cenderung:

Menolak informasi yang mengganggu ego

Akibatnya, sebagian orang memilih pendekatan yang lebih keras agar pesan benar-benar masuk.


3. Investasi Emosional = Intensitas Reaksi

Semakin seseorang peduli, semakin besar kemungkinan reaksinya terlihat “berlebihan”.

Ini karena:

  • Ada ekspektasi
  • Ada risiko yang dipahami
  • Ada konsekuensi jangka panjang yang dilihat lebih dulu

Sebaliknya, orang yang tidak peduli biasanya:

  • Diam
  • Membiarkan
  • Tidak mengoreksi

4. Perbedaan Antara Kasar dan Kejam

Penting untuk membedakan:

Tipe Karakteristik
Tegas/Keras Fokus pada masalah
Kejam/Toxic Menyerang personal

Contoh:

  • “Code ini berantakan” → keras, tapi valid
  • “Kamu bodoh” → toxic, tidak konstruktif

Masalahnya, banyak orang tidak bisa membedakan keduanya.


Risiko Salah Interpretasi

Ketika semua bentuk ketegasan dianggap negatif:

  • Feedback jujur menghilang
  • Lingkungan menjadi penuh “fake politeness”
  • Kesalahan besar tidak pernah dikoreksi

Dalam jangka panjang, ini jauh lebih berbahaya daripada sekadar tersinggung sesaat.


AI Bukan Tuhan: Bahaya Menjadikan AI sebagai Source of Truth

Jika fenomena pertama berkaitan dengan manusia, fenomena kedua berkaitan dengan teknologi.

Dan ini jauh lebih berbahaya.


Apa Itu “AI sebagai Source of Truth”?

Ini terjadi ketika seseorang:

  • Menganggap output AI selalu benar
  • Tidak melakukan verifikasi
  • Menggunakan AI sebagai satu-satunya referensi

Dengan kata lain:
AI menggantikan proses berpikir.


Mengapa Ini FATAL?

1. AI Tidak Memahami Kebenaran, Hanya Pola

AI bekerja dengan:

  • Prediksi probabilistik
  • Pola data historis
  • Statistik, bukan pemahaman

Artinya:

AI bisa terdengar benar, meskipun sebenarnya salah.


2. Halusinasi Itu Nyata

AI bisa menghasilkan:

  • Fakta yang tidak ada
  • Referensi palsu
  • Penjelasan yang meyakinkan tapi salah

Tanpa validasi, kesalahan ini bisa:

  • Masuk ke sistem produksi
  • Menjadi keputusan bisnis
  • Menyebar sebagai “pengetahuan”

3. Over-Reliance Menghancurkan Skill

Jika terlalu bergantung pada AI:

  • Kemampuan problem solving menurun
  • Critical thinking melemah
  • Debugging skill hilang

Dalam jangka panjang:

Anda tidak lagi tahu apakah sesuatu itu benar—Anda hanya tahu AI bilang itu benar.


4. False Confidence = Risiko Tinggi

Masalah terbesar bukan AI salah.

Masalah terbesar adalah:

Manusia menjadi terlalu percaya diri terhadap output yang tidak diverifikasi

Ini adalah kombinasi berbahaya:

  • Output terlihat meyakinkan
  • User tidak punya cukup pengetahuan untuk validasi
  • Keputusan tetap diambil

Studi Kasus Sederhana

Bayangkan:

  • Developer menggunakan AI untuk generate query database
  • Query terlihat valid
  • Tidak diuji dengan edge case

Hasilnya:

  • Data corruption
  • Performance bottleneck
  • Security vulnerability

Semua karena satu asumsi:
“AI pasti benar.”


AI Seharusnya Digunakan Sebagai Apa?

AI bukan:

  • Source of truth
  • Pengganti berpikir
  • Otoritas absolut

AI adalah:

1. Accelerator

Mempercepat pekerjaan, bukan menggantikan pemahaman.

2. Assistant

Memberi alternatif, bukan keputusan final.

3. Second Opinion

Bukan satu-satunya opini.


Prinsip Aman Menggunakan AI

1. Trust, But Verify

Selalu:

  • Cross-check
  • Test
  • Validasi

2. Gunakan AI untuk Draft, Bukan Final

  • Code → harus direview
  • Arsitektur → harus dipikir ulang
  • Keputusan → tetap manusia

3. Pertahankan Friction dalam Berpikir

Jika semua terasa terlalu mudah, itu tanda bahaya.

Belajar tetap butuh:

  • Friksi
  • Trial & error
  • Deep thinking

Kesimpulan

Dua hal yang terlihat berbeda ini sebenarnya memiliki pola yang sama:

Fenomena Masalah Utama
Menolak ketegasan Lebih memilih kenyamanan daripada kebenaran
Mengandalkan AI sepenuhnya Menghindari proses berpikir

Kebenaran seringkali:

  • Tidak nyaman
  • Tidak halus
  • Tidak instan

Baik dalam interaksi manusia maupun penggunaan teknologi, prinsip yang sama berlaku:

Jika sesuatu terasa nyaman tanpa usaha, kemungkinan besar itu bukan kebenaran—itu ilusi.