오픈소스 AI 프로젝트 NanoClaw의 창시자가 공식 웹사이트를 만들기 전, 누군가 GitHub README를 스크래핑해 가짜 사이트를 먼저 올렸다.
Google을 포함한 거의 모든 검색엔진이 이 가짜를 진짜보다 위에 노출하고 있으며, 18K 스타와 주요 매체 보도, 15회 이상의 Search Console 제출에도 한 달째 뒤집히지 않고 있다.
이 사건을 추적해보니, 단순한 도메인 사기가 아니라 검색엔진과 도메인 시스템, 오픈소스 생태계 세 가지 구조적 결함이 동시에 드러나는 지점이었다.
프롤로그, “그 사이트, 당신 거 아니었어요?”
2026년 2월, Gavriel Cohen이라는 이스라엘 개발자가 만든 오픈소스 AI 에이전트 플랫폼 NanoClaw가 폭발적으로 성장하고 있었습니다.
GitHub 스타 18,000개. VentureBeat, The Register, CNBC가 다뤘고, AI계의 거물 Andrej Karpathy까지 “약간 정신이 날아갔다(slightly blew my mind)”고 공개 칭찬을 했습니다.
그런데 이상한 연락이 오기 시작했습니다.
“사이트에 오류가 있던데요.”
“당신 웹사이트 정보가 틀린 것 같아요.”
Cohen에게는 웹사이트가 없었습니다. GitHub 저장소가 곧 프로젝트였으니까요. 오픈소스 개발자라면 누구나 하는 방식이었습니다. 코드를 먼저 만들고, 사이트는 나중에.
하지만 누군가가 그 “나중에”의 빈틈을 정확히 파고들었습니다.
빈 의자에 누가 앉았는가
데이터를 추적해보니, 2월 8일경 누군가 nanoclaw.net이라는 도메인을 등록했습니다. Cohen이 프로젝트를 공개한 지 약 1주일 뒤였습니다.

등록에 사용된 곳은 Spaceship.com이었고, 파고 들어가보니 이것은 Namecheap의 자회사였습니다(2023년 8월 출시). WHOIS 프라이버시가 걸려 있어서 등록자의 실체는 보이지 않았습니다.
그런데 흥미로운 건 이 사이트의 생성 방식이었습니다. NanoClaw의 GitHub README를 그대로 스크래핑해서 자동 생성한 사이트였습니다.
거기에 한 가지가 더 있었습니다. 게시 날짜를 조작한 것입니다. Cohen의 표현을 빌리면 “publication dates를 위조”했습니다. 마치 자기가 원본인 것처럼요.
그리고 Hacker News 토론에서 하나 더 발견됐습니다. 두 번째 사칭 사이트 nanoclaws.io가 존재했고, 이쪽은 이미 이메일 주소를 수집하고 있었습니다.
(Cohen의 X 스레드 | Hacker News 토론, 315포인트 | SEJ 보도)
Google에 물어봤더니, 가짜가 1등이었습니다
Cohen은 뒤늦게 nanoclaw.dev를 만들었습니다. GitHub 저장소에 연결하고, 구조화 데이터를 넣고, Google Search Console에 15번 이상 제출했습니다. 주요 매체들도 전부 nanoclaw.dev로 링크를 걸어줬습니다.
3월 5일, 구글에 “NanoClaw”를 검색해봤습니다.
1위는 nanoclaw.net, 가짜였습니다. nanoclaw.dev, 진짜는 첫 몇 페이지에도 없었습니다.
DuckDuckGo에서도 같은 결과였습니다. Bing에서도. Brave에서도. Ecosia, Qwant에서도 마찬가지였습니다.
Hacker News의 누군가가 여러 검색엔진을 테스트한 결과를 공유했는데, 흥미로운 패턴이 보였습니다. 가짜 사이트를 배제하고 진짜만 보여준 검색엔진은 딱 하나, Mojeek뿐이었습니다.
Mojeek는 다른 엔진들과 달리 자체 독립 인덱스를 사용하는 유일한 검색엔진이었습니다.
이걸 뒤집어 보면, DuckDuckGo와 Brave는 Bing의 인덱스를 공유하고 있고, Bing이 오염되면 이 엔진들이 전부 같이 오염된다는 뜻이었습니다.
왜 가짜가 이기는가. “먼저 앉은 놈이 임자”
Hacker News 토론을 파고들면서 한 SEO 전문가의 증언이 눈에 띄었습니다. “경쟁 키워드에서 수년간 상위 3위를 유지하는 페이지를 봤는데, 그 이유가 단순히 그 주제에 대해 최초로 글을 올렸기 때문이었다”는 것이었습니다.
이걸 NanoClaw 상황에 대입하면 구조가 보입니다. Cohen에게 웹사이트가 없던 시기에 nanoclaw.net이 먼저 인덱싱됐습니다. 검색엔진 입장에서는 “NanoClaw”라는 쿼리에 대한 최초의 전용 웹페이지가 .net이었던 것입니다.
그리고 공식 사이트가 없던 시기에 일부 매체가 실수로 .net에 링크를 걸었습니다. The Register, The New Stack 같은 고권위 사이트에서 온 백링크가 .net의 위치를 시멘트처럼 굳혀버렸습니다.
Google의 John Mueller는 과거에 “복사 콘텐츠가 원본보다 계속 높게 랭킹된다면 사이트 품질 문제일 수 있다”고 말한 적이 있었습니다.
그런데 Cohen의 프로젝트는 GitHub 스타 18K, Karpathy의 추천, 주요 매체 보도를 전부 갖추고 있었습니다. 품질의 문제가 아니라 시간의 문제였습니다.
이 사이트를 만든 자는 누구인가
도메인 등록자의 신원은 확인할 수 없었습니다. 하지만 행동 패턴에서 몇 가지가 읽혔습니다.
Decodo라는 웹 데이터 회사가 2026년 2월에 발표한 연구를 찾았습니다. 전 세계 상위 20개 웹사이트에 대해 28,212개의 유사 도메인이 이미 등록되어 있었습니다.
AI 브랜드가 특히 집중 타겟이었고, Gemini 관련 2,800개, ChatGPT 관련 1,200개였습니다. Decodo의 결론은 이랬습니다. “스쿼팅은 더 이상 기회주의적이지 않다. 산업화되었다.”
nanoclaw.net의 행동을 이 맥락에 놓으면 패턴이 맞아떨어집니다. GitHub 트렌딩 모니터링, 빠르게 스타가 오르는 프로젝트 감지, 도메인 선점, README 자동 스크래핑으로 사이트 생성, 게시 날짜 조작, 선제 인덱싱 확보.
이걸 수작업으로 한다면 비효율적이지만, 자동화한다면 수백 개 프로젝트에 동시에 적용 가능합니다.
여기서 한 가지 더 발견했습니다.
Infoblox가 2025년 12월에 발표하고 Krebs on Security가 보도한 연구에서는, 파킹된 도메인의 90% 이상이 현재 악성 콘텐츠를 제공하고 있다고 나왔습니다. 2014년에는 5% 미만이었습니다. 방치된 도메인의 성격 자체가 바뀐 것입니다.
(Decodo 연구 | TechRadar | Krebs on Security)
“아직 아무 일도 안 일어났잖아요”의 함정
nanoclaw.net은 현재 악성코드를 배포하지 않습니다. 피싱도 하지 않습니다. 그래서 Spaceship.com도, Cloudflare도, Google도 “법적 근거 불충분”으로 움직이지 않은 것으로 보입니다.
그런데 바로 이 시기에 OpenClaw 생태계에서 무슨 일이 일어나고 있었는지를 조합해보면, 이야기가 달라집니다.
2026년 1월 27일에서 29일 사이, OpenClaw의 ClawHub 마켓플레이스에 14개 이상의 악성 스킬이 업로드됐습니다. 가짜 암호화폐 도구로 위장돼 있었습니다.
2026년 2월 5일, Bitdefender가 분석 결과를 발표했습니다.
OpenClaw 제3자 스킬 중 17%가 악성이었고, 그중 54%가 암호화폐 사용자 타겟이었습니다. 가짜 VS Code 확장 프로그램 “ClawdBot Agent”는 원격 접근 도구를 설치하고 있었습니다.
2026년 2월 12일, Bitdefender가 추가 발표를 했습니다. 135,000개의 OpenClaw AI 에이전트가 인터넷에 노출되어 있었습니다.
NanoClaw는 바로 이 OpenClaw의 “보안 대안”으로 등장한 프로젝트였습니다.
보안을 찾아 NanoClaw로 온 사용자들이 가짜 사이트에서 변조된 바이너리를 다운로드한다면 어떻게 될까요? Cohen이 “live, active security risk”라고 부른 이유가 여기에 있었습니다. 지금은 아무 일도 안 일어나고 있지만, 사이트 콘텐츠는 언제든 교체할 수 있습니다.
(Bitdefender 보고서 | Tom’s Hardware | SecurityWeek)
그런데 정말 악의인가. 반대 방향에서 본 것들
한쪽으로만 보면 편향됩니다. 반대쪽 데이터도 조합해봤습니다.
“단순한 팬 사이트 아닌가?” 가능성은 있습니다. 하지만 선의의 팬이 게시 날짜를 위조하고, 테이크다운 요청을 무시하고, “비공식”이라는 표시 하나 달지 않는 행동 패턴과 양립시키기가 어려웠습니다.
“시간이 해결해줄 문제 아닌가?” 부분적으로 맞을 수 있습니다. Hacker News의 한 전문가는 “아직 1주일밖에 안 됐다”고 했습니다. 실제로 Google의 랭킹이 조정되는 데는 수 주가 걸릴 수 있습니다.
다만, Search Console에 15회 이상 제출하고 주요 매체 백링크가 전부 .dev를 가리키는 상황에서 변화가 전무하다는 건 “단순 지연” 이상을 시사하는 것처럼 보였습니다.
“Cohen의 SEO 대응이 부족한 거 아닌가?” Hacker News에서 몇몇이 지적했습니다. .com 대신 .dev를 선택한 것, HN 스레드에 직접 링크 대신 X 트윗을 건 것, 소셜 프로필 구축이 늦은 것.
틀린 말은 아니었습니다. 하지만 가장 많은 추천을 받은 댓글은 이것이었습니다. “Google은 수십억 달러의 자본을 가진 회사인데, GitHub 저장소에 공식 웹사이트가 바로 거기 적혀 있는데도 정식 사이트를 파악 못 한다고?”
세 개의 톱니바퀴. 이 일을 가능하게 만든 상위 구조
개별 사건을 넘어서, 이 사건이 발생할 수 있었던 시스템 자체를 들여다봤습니다. 세 개의 구조가 맞물려 있었습니다.
첫 번째 톱니바퀴, 검색 엔진의 “권위” 모델입니다.
Google의 알고리즘은 “누가 만들었는가”가 아니라 “누가 먼저 인덱싱됐고 백링크를 더 많이 가졌는가”를 묻습니다. 20년 전 웹에서는 합리적이었습니다.
하지만 사이트 생성이 자동화되고 도메인 스쿼팅이 산업화된 2026년에는, 이 모델이 원본과 복제본을 구별하지 못하는 맹점이 됐습니다.
2024년 DOJ가 Google을 불법 독점으로 판결했고 2025년 9월에 검색 데이터 공유를 명령했지만, 알고리즘의 진본 판별 능력을 교정하라는 명령은 없었습니다.
두 번째 톱니바퀴, “먼저 등록한 사람이 임자”인 도메인 시스템입니다.
WIPO의 도메인 분쟁 처리 건수가 2025년 6,200건으로 사상 최대치를 기록했습니다. 2020년 대비 68% 증가였습니다.
숫자가 말해주고 있었습니다. 현재의 분쟁 해결 시스템이 악용의 속도를 따라잡지 못하고 있다는 것을요. 게다가 Cohen처럼 상표 등록이 없는 오픈소스 개발자는 UDRP 절차를 활용하기도 어려웠습니다.
세 번째 톱니바퀴, 오픈소스의 “신뢰 경로” 공백입니다.
오픈소스 프로젝트는 코드 무결성(커밋 서명, 릴리스 해시)에는 투자하지만, “이 프로젝트의 공식 웹사이트는 여기입니다”를 기계가 읽을 수 있는 형태로 선언하는 표준이 없었습니다.
GitHub에 “homepage” 필드가 있긴 하지만, 검색 엔진이 이것을 정식 canonical 신호로 인식하는 메커니즘은 부재했습니다. 이 빈틈에 누군가가 .net을 끼워넣은 것입니다.
사람들은 어떻게 움직였는가
이건 결론이 아니라, 각 주체의 행동에서 읽히는 것들입니다.
Cohen은 기술적으로 정확하고, 감정적이면서도 절제된 커뮤니케이션을 보였습니다. Wix에서 7년, 형제와 AI 마케팅 에이전시 Qwibit을 운영하는 사람답게 미디어 대응은 능숙했습니다. 일부에서 “바이럴 마케팅 아니냐”는 의심이 나왔지만, OpenClaw 생태계의 실제 악성 사례들을 조합하면 그의 보안 우려는 근거가 있었습니다.
nanoclaw.net 운영자는 보이지 않습니다. WHOIS 프라이버시 뒤에 숨어 있습니다. 하지만 행동이 말해줍니다. README 자동 스크래핑 역량, 게시 날짜 조작, 테이크다운 무응답. 한 번의 기회주의라기보다는 반복적으로 해왔던 사람의 움직임처럼 보였습니다.
Google은 침묵했습니다. Cohen의 테이크다운 요청에 응답이 없었습니다. Hacker News에서 가장 날카로운 댓글 중 하나는 이것이었습니다.
“Google의 비즈니스 모델은 사용자가 무엇을 찾도록 돕는 것이 아니라, Google의 고객이 Google에게 돈을 지불하게 돕는 것이다.” GitHub API를 읽어서 homepage 필드를 canonical로 인식하는 것은 기술적으로 가능합니다. 안 하는 것과 못 하는 것은 다른 문제입니다.
Spaceship.com과 Namecheap의 abuse 처리 시간은 72시간이고, 법 집행기관만 24시간입니다. 사이트가 직접 악성코드를 배포하지 않는 이상 “법적 근거 불충분”으로 움직이지 않는 구조입니다.
문이 잠겨 있지 않다고 해서 들어가도 된다는 뜻은 아닌데, 현재 시스템에서는 문이 잠겨 있지 않으면 아무도 출동하지 않습니다.
(Spaceship abuse 절차 | Namecheap abuse 정책)
이 이야기가 남기는 질문들
이 사건의 데이터를 모으고 조합하면서, 답보다 질문이 더 많아졌습니다. 결론을 내리는 대신, 발견한 것들을 질문으로 남깁니다.
하나. nanoclaw.net이 프로젝트 공개 1주일 만에 등록됐다면, GitHub 트렌딩을 실시간 감시하는 자동화 시스템이 있다는 뜻일까요?
그렇다면 이건 NanoClaw만의 문제가 아니라, 지금 이 순간에도 인기를 얻고 있는 모든 오픈소스 프로젝트에 동시에 벌어지고 있는 일일까요?
둘. 여러 검색엔진을 테스트한 결과, 가짜 사이트를 걸러내고 진짜만 보여준 곳은 Mojeek 하나뿐이었습니다.
Mojeek는 자체적으로 웹을 수집하는 독립 검색엔진입니다. 반면 DuckDuckGo, Brave, Ecosia 같은 검색엔진들은 마이크로소프트 Bing의 검색 데이터를 빌려 씁니다. Bing이 가짜를 진짜로 판단하면, 이 데이터를 공유하는 모든 검색엔진이 같은 실수를 반복하는 구조입니다. 하나가 오염되면 전체가 오염되는 이 구조, 이미 현실이 된 것일까요?
셋. Google은 GitHub 저장소에 적혀 있는 공식 웹사이트 주소를 읽기만 하면 이 문제를 바로 해결할 수 있었습니다.
기술적으로 못 하는 것일까요, 아니면 할 수 있는데 안 하는 것일까요? 안 하는 것이라면, 그 이유는 무엇일까요?
넷. NanoClaw가 왜 만들어졌는지를 떠올려보면 이야기가 달라집니다.
원래 있던 OpenClaw라는 AI 플랫폼에서 악성 프로그램이 대량 발견됐고, NanoClaw는 그 보안 문제를 해결하려고 나온 대안이었습니다.
즉, 보안이 걱정돼서 NanoClaw를 찾아온 사용자들을 가짜 사이트가 맞이하고 있는 상황입니다. 이것은 단순한 우연일까요, 아니면 더 큰 공격을 준비하는 사전 작업일까요?
다섯. 도메인 이름을 둘러싼 국제 분쟁이 5년 사이 68% 늘었고, 아무도 쓰지 않고 방치된 도메인의 90%가 지금은 악성 사이트로 바뀌어 있습니다.
인터넷 주소를 먼저 등록한 사람이 무조건 주인이 되는 현재의 도메인 시스템, 이미 제 역할을 못 하는 상태에 들어선 것일까요?
이 보고서는 2026년 3월 6일 기준, 공개된 데이터만을 조합하여 작성했습니다. 사건은 현재 진행 중입니다. Google과 Spaceship.com은 아직 공식 응답을 하지 않았습니다. 모든 출처는 본문 내 링크로 확인하실 수 있습니다.


