Kursus → Modul 1: Apa yang Bikin Slop Jadi Slop
Sesi 2 dari 10

Ambil artikel AI sepanjang 1.000 kata manapun dan baca dengan stabilo di tangan. Tandai setiap frasa yang mengkualifikasi, melembutkan, atau meng-hedge pernyataan. "Penting untuk dicatat bahwa." "Secara umum." "Patut dipertimbangkan." "Bisa dibilang." "Dalam banyak kasus." "Tergantung berbagai faktor."

Di artikel AI yang belum diedit, kamu bakal menemukan 15 sampai 30 frasa hedging per seribu kata. Itu satu hedge setiap 33 sampai 66 kata. Dengan kepadatan segitu, teksnya bukan menyampaikan informasi. Teksnya sedang mempertunjukkan kehati-hatian.

Kenapa AI Meng-hedge

Hedging adalah konsekuensi langsung dari training RLHF. Ketika rater mengevaluasi output AI, pernyataan percaya diri yang ternyata salah dihukum lebih berat daripada pernyataan samar yang menghindari komitmen. Model belajar bahwa hedging lebih aman daripada presisi. "Beberapa ahli menyarankan bahwa olahraga mungkin bermanfaat" skornya lebih baik daripada "Olahraga mengurangi risiko penyakit kardiovaskular sebesar 20-30%" karena versi pertama ga mungkin salah secara faktual.

Ini menciptakan optimasi yang kontraproduktif: model diberi reward karena bilang lebih sedikit sambil kelihatan bilang lebih banyak.

AI meng-hedge karena RLHF menghukum jawaban percaya diri yang salah lebih berat daripada memberi reward jawaban percaya diri yang benar. Hasilnya adalah prosa yang ga bilang apapun dengan percaya diri.

Taksonomi Pola Hedging

Hedging di output AI ga acak. Ini mengikuti pola yang bisa diklasifikasi, masing-masing melayani fungsi penghindaran tertentu.

Tipe Hedge Contoh Fungsi Frekuensi
Flag penting "Penting untuk dicatat bahwa..." Memberi sinyal kalimatnya penting tanpa membuktikannya Sangat tinggi
Kuantifier samar "Dalam banyak kasus," "Sering," "Kadang-kadang" Menghindari menyebutkan berapa banyak atau seberapa sering Sangat tinggi
Deferral ke otoritas "Para ahli menyarankan," "Penelitian menunjukkan" Mengklaim otoritas tanpa menyebut otoritasnya Tinggi
Hedge kemungkinan "Mungkin," "Bisa jadi," "Barangkali" Menurunkan klaim dari fakta ke spekulasi Tinggi
Sinyal keseimbangan "Di sisi lain," "Namun, juga benar bahwa" Menyajikan kedua sisi meski satu sisi jelas lebih kuat Sedang
Pembatas cakupan "Dalam konteks tertentu," "Tergantung situasinya" Mempersempit klaim untuk menghindari kemungkinan pengecualian apapun Sedang
Meta-komentar "Ini topik yang kompleks," "Ga ada jawaban sederhana" Mengomentari topiknya alih-alih membahasnya Sedang

Filler: Separuh Masalah Lainnya

Filler berbeda dari hedging. Hedging mengkualifikasi klaim. Filler menambah kata tanpa menambah makna. Gabungan keduanya menggembungkan jumlah kata sambil mengempiskan kepadatan informasi.

Pola filler umum di teks AI:

graph TD A["Artikel AI 1000 kata"] --> B["Hapus frasa hedging
(-150 kata)"] B --> C["Hapus filler
(-200 kata)"] C --> D["Hapus pengulangan
(-100 kata)"] D --> E["Konten informasi aktual:
~550 kata"] E --> F["Kepadatan informasi: 55%"]

Artikel manusia yang ditulis dengan baik sepanjang 1.000 kata biasanya membawa 800-900 kata konten aktual. Artikel AI yang belum diedit membawa 500-600. Sisa 400-500 kata adalah hedging, filler, dan pengulangan. Artinya pembaca harus memproses hampir dua kali lipat kata untuk mengekstrak jumlah informasi yang sama.

Solusinya: Kompresi sebagai Editing

Teknik editing paling sederhana untuk output AI adalah kompresi. Ambil teks yang di-generate dan hapus setiap hedge, setiap frasa filler, dan setiap pengulangan. Yang tersisa adalah konten aktual. Sering kali, konten itu acceptable. Cuma terkubur di bawah lapisan kehati-hatian dan padding.

Sebelum kompresi:

"Penting untuk dicatat bahwa, dalam banyak kasus, manajemen proyek yang efektif sering kali dapat menghasilkan outcome yang jauh lebih baik. Secara umum, tim yang mengimplementasi metodologi terstruktur cenderung melihat hasil yang lebih baik seiring waktu, meskipun patut dipertimbangkan bahwa setiap situasi itu unik."

Setelah kompresi:

"Tim yang pakai metodologi manajemen proyek terstruktur dapat hasil lebih baik."

Versi kompres bilang hal yang persis sama dalam 10 kata alih-alih 40-an. Dia berkomitmen pada klaim. Dia ga minta maaf karena punya opini. Ini tulisan yang lebih baik, dan cuma butuh sepuluh detik editing untuk menghasilkannya.

Kompresi bukan solusi lengkap. Ini memperbaiki masalah permukaan padding tanpa mengatasi isu struktural yang lebih dalam. Tapi sebagai pass pertama pada output AI manapun, ini langsung meningkatkan keterbacaan dan kepadatan informasi.

Bacaan Lanjutan

Tugas

  1. Ambil teks AI sepanjang 1.000 kata manapun. Highlight setiap frasa hedge dan filler menggunakan taksonomi di atas.
  2. Hitung total hedge dan filler. Kalkulasi kepadatan hedge (hedge per 100 kata).
  3. Tulis ulang 300 kata pertama dengan semua hedge dan filler dihapus. Jangan tambahkan apapun. Hanya hapus.
  4. Bandingkan versi asli dan versi kompres. Hitung kata di masing-masing. Kalkulasi peningkatan kepadatan informasi.