Kenapa AI Crawler Tidak Bisa Baca Site Next.js App Router
Iwan Efendi2 min
Saya iseng minta Claude fetch salah satu artikel SnipGeek langsung dari URL-nya. Yang balik cuma title tag. Isi artikel kosong sama sekali.
Reaksi pertama saya: pasti ada yang salah di kode saya.
Dugaan awalnya simpel — mungkin halaman artikel masih client-side rendered. HTML yang dikirim server cuma shell kosong, konten baru muncul setelah JavaScript jalan. Ini kesalahan klasik Next.js kalau
Saya jalankan diagnostic lebih dalam langsung ke URL live:
Response-nya 101KB — bukan halaman kosong. Kata kunci
Nol tag HTML biasa. Semua konten ada di dalam RSC payload.
Pages Router lama menghasilkan HTML murni:
Google bisa baca semua artikel. Masalahnya spesifik ke crawler yang hanya mengandalkan plain HTTP tanpa render JavaScript.
Saya tambah Route Handler di Next.js yang serve konten artikel sebagai plain JSON — tanpa RSC format, tanpa butuh JavaScript:
Beberapa keputusan yang saya ambil saat implementasi:
Response:
Konten artikel terbaca penuh sebagai plain text. Siapapun — termasuk AI, developer, atau tool apapun — bisa baca isi artikel SnipGeek tanpa butuh browser atau JavaScript.
Yang saya rencanakan berikutnya: implementasi
Diagnosis Pertama: Client-Side Rendering?
"use client" nyasar ke page component.
Saya minta Antigravity audit seluruh codebase. Hasilnya bersih:
[locale]/blog/[slug]/page.tsx→ ✅ Server Component[locale]/notes/[slug]/page.tsx→ ✅ Server Component- MDX dikompilasi server-side via
next-mdx-remote/rsc→ ✅ generateStaticParamssudah ada → ✅
Diagnosis Kedua: RSC Flight Format
curl -s https://snipgeek.com/notes/how-to-read-ai-build-failed-logs | grep -i 'article\|content\|body\|prose' | head -20content, article, prose semua ditemukan ratusan kali. Tapi waktu dicek lebih dalam, ini yang saya lihat:
{"className":"text-lg text-foreground/80 prose-content","children":"$L1d"}
$L1d bukan teks artikel. Itu referensi ke React Server Component chunk — format streaming khusus Next.js App Router yang disebut RSC Flight format. Konten artikelnya ada, tapi terkemas dalam payload yang hanya bisa didecode oleh React runtime.
Konfirmasi:
curl -s https://snipgeek.com/notes/how-to-read-ai-build-failed-logs | grep '<p>'
# Total <p> tags: 0
# Total <h2> tags: 0Ini Bukan Bug — Ini Trade-off Arsitektur
<p>, <h2>, konten terbaca langsung di response. App Router beralih ke RSC Flight — format streaming yang dioptimalkan untuk performa hydration, tapi tidak bisa dibaca tanpa React runtime.
Untuk SEO, ini tidak masalah:
| Crawler | Bisa Baca Konten? | Alasan |
|---|---|---|
| Googlebot | ✅ | Headless Chrome, render JS penuh |
| Bingbot | ✅ | Sama — render JS penuh |
| AI crawler (GPTBot, ClaudeBot) | ⚠️ | Tergantung — ada yang render JS, ada yang tidak |
Claude via web_fetch | ❌ | Plain HTTP fetch, tanpa eksekusi JavaScript |
Solusi: API Route untuk Plain JSON
GET /api/posts/[slug]?locale=en → JSON artikel bahasa Inggris
GET /api/posts/[slug]?locale=id → JSON artikel bahasa Indonesia
GET /api/notes/[slug]?locale=en → JSON notes bahasa Inggris
GET /api/notes/[slug]?locale=id → JSON notes bahasa Indonesia
- Locale fallback — kalau versi
idbelum ada, fallback keendenganisFallback: truedi response. X-Robots-Tag: noindex— supaya API route tidak diindex Google sebagai duplicate dari halaman utama.Cache-Control: public, max-age=3600— cache response supaya tidak trigger serverless invocation berulang.translationUrls— field yang berisi URL lengkap untuk tiap locale yang tersedia, berguna untuk tool yang consume API ini.
curl -s "https://snipgeek.com/api/posts/ubuntu-26-04-beta-sudah-bisa-didownload?locale=id"{
"slug": "ubuntu-26-04-beta-sudah-bisa-didownload",
"locale": "id",
"isFallback": false,
"translationAvailable": ["en", "id"],
"translationUrls": {
"en": "/api/posts/ubuntu-26-04-beta-sudah-bisa-didownload?locale=en",
"id": "/api/posts/ubuntu-26-04-beta-sudah-bisa-didownload?locale=id"
},
"title": "Ubuntu 26.04 Beta Sudah Rilis — Tapi Jangan Buru-Buru Install",
"description": "...",
"date": "2026-03-30",
"tags": ["ubuntu", "linux", "beta"],
"content": "\nSaya nunggu beta Ubuntu 26.04 ini sambil setengah semangat..."
}Perubahan Aman
API route ini hidup sepenuhnya di namespace
/api/* — terpisah dan tidak bisa mengganggu routing halaman yang sudah ada. Ini pure additive change — tidak menyentuh apapun yang sebelumnya.Langkah Selanjutnya
llms.txt — standar baru mirip robots.txt tapi khusus untuk AI — yang berisi daftar semua URL konten SnipGeek dalam format yang mudah diproses LLM crawler.
Kalau kamu juga punya site Next.js App Router dan frustrasi kenapa AI tidak bisa baca kontennya, coba tambah API route plain JSON seperti ini. Hasilnya langsung terasa.
Referensi
Topics
Topik dalam catatan
Jelajahi pembahasan serupa lewat topik-topik terkait berikut.
Bagikan artikel ini
Diskusi
Menyiapkan area komentar...