SEO 자동 프로그램 관련해서 구매 관련해서 나에게 물어보시는 분들이 꽤 있으시다. 똑같은 이야기를 반복적으로 하다보니 글을 남기고 이 글로 대신하려고 한다.
IT 관련해서 나 자신도 경력이 꽤 된다고 생각한다. 일단 영업적인 부분으로 시작하였지만 클라우드를 하다보니 기획과 아키텍처도 자연스럽게 배우게되고, 관련 업종에 있다보면 개발 용어와 이해 그리고 시스템 엔지니어 관련된 용어와 이해를 하다보면 하나의 Map으로 그려지게 된다.
이러한 지식을 가지고, 빅데이터, 금융권, 데이터 센터 쪽에 오랫동안 업무를 하였으며, 연차가 있는 개발자와도 큰 그림을 가지고 이야기를 할 수 있는 지식은 가지고 있다.
그러다 검색엔진이 빅데이터와 AI쪽에 깊은 연관이 있다보니 자연스럽게 SEO 쪽으로 빠져들게 되었다.
SEO라는 것은 검색엔진이 데이터를 쉽게 받아들이고, 쉽게 데이터 처리를 하게하여 데이터 결과값을 나오게 하기 위함이다.
구글SEO를 기준으로 하는것은 플랫폼 기준이 다 다른것을 통일화하여 구글 검색엔진에서 데이터를 쉽게 가져가게하기 위해 만든 기준이다.
네이버의 경우 네이버 블로그는 이미 네이버 자사 서버를 이용하는 서비스이다보니 SEO가 따로 필요가 없다. 필요하다면, 랭킹 알고리즘 정도??? 근데 이것을 네이버 입장에서 굳이 다 오픈할 이유는 없다.
‘공정성을 위해 기본적인 기술가이드는 오픈을 하지만, 자세한 오픈은 자사 개발 자산을 남들이 도용할 수 있기때문에 할 필요가 없는 것이다.’
아무튼 이러한 SEO는 검색엔진의 데이터를 잘 긁어가게 하기 위한 기준이다.
이를 이해하기 위해서는 서버 구성과 알고리즘, 이 알고리즘을 처리하기 위한 시스템 이해 그리고 데이터 분석을 하기 위한 데이터 소스 기준을 알고 있으면, 언제든지 나한테 유리한 근접한 정보를 얻을 수 있다.
그런데 최근 들어 빅데이터와 AI가 들어오면서 이러한 부분이 일단 무의미 해진다.
머신러닝 딥러닝과 AI의 가장 큰 차이가 무엇인지 아는가?
머신러닝, 딥러닝을 만든 이유는 데이터 결과치를 손쉽게 얻을 수 있게 만든 것이라고 생각하면 된다. 그리고 잘못된 것이 있다면, 사람이 다시 수정을 하여 또 다른 결과치를 얻을 수 있다.
하지만 AI는 이러한 결과치도 AI가 얻어내고, 잘못된것을 사람이 아닌 AI가 수정하여 다른 결과치를 얻어낸다. 한마디로 데이터가 쌓이면 사람이 할일이 없어진다. 기본적인 방향성을 주면, 그 다음부터는 AI가 알아서 모든 것을 처리한다.
그래서 핵심적인 알고리즘은 아직까지 구글이든 네이버든 AI가 하는 것이 아니라 사람이 관여해서 알고리즘 기본 방향성을 만든다.
그런데 현재 검색 엔진 회사들은 기본적인 데이터 결과값을 받아내는 것과 분류하는 것에 AI를 사용하고 있다.
이 이야기는 무엇이냐.
당신이 천재라도 검색 결과값을 나한테 유리한 것을 만들기 위해 만든것이 있다고 해도, 몇개월 안에 데이터가 쌓이게 되면 이러한 결과값을 방해하기 위한 조건들을 AI가 만들어 필터를 하게 된다.
한마디로 hack 관련된 것을 만든다고 하여도 수명은 그 프로그램의 유효기간은 데이터 쌓이는 기간과 비례하게 된다.
많은 사람이 사용하게되면, 그만큼 빨리 막히게 되는 것이다.
현재 검색엔진 회사들은 이러한 AI를 필터하는 시스템에 많이 도입이 되었다. 이미지라던가 키워드 분류라던가 필터를 하는 결과치에는 앞으로 AI가 관여도가 더욱 높아질 것이다.
이러한 필터가 강화된 상황에서 자동 프로그램이 먹힌다는 게 말이 되는가???
AI가 있기전에 이미 자동 프로그램을 걸러내는 기준이 있었다.
이런 자동화로 사람과 봇이 하는 행위인지를 파악하는 시스템이 가장 잘 구축되어있는 곳이 구글이고, 그 중에서도 구글 광고 쪽 (애드센스, 애즈) 쪽이다.
이쪽은 이미 2015년부터 자동 클릭 방지를 위해서 IP라던가, Bot의 종류를 분간하여 사람과 봇의 행위를 분간하였다.
물론 더많은 데이터 기준이 있을 것이다. 마우스 휠의 움직임. 브라우저, 기기, 사용자 행위 습관, 기타 등등 여러가지 데이터 log 값을 이용하여 비교 분석을 할 것이다.
이러한 데이터를 집계하여 실용화하는 것은 이미 오래전부터 IT 쪽에서 사용을 하고 있었기에 “우와~”할 정도의 기술은 아니다.
단지 이를 실행하기 위해서는 서버가 탄탄해야하고, 분석을 하기위해서는 많은 전기와 리소스를 써야하는데 그만큼의 비용과 효율성을 늘리는 자원이 있느냐를 봐야했다.
2018년 이후부터 이러한 자원이 충분히 받쳐졌고, 빅데이터 기술과 데이터 처리 기술이 확 늘어났기때문에 실행화 되고 있었다고 봐야한다.
(문제는 쓰는 돈 만큼 사업에 이득이 되느냐를 봐야한다. 구글의 경우 Spam도 상업적인 고객의 하나로 보기때문이다.)
아무튼,
가장 대표적으로 IP, 기기, 사용자 움직임등을 이용하여 2016년에 프로그램이 나왔었고, 직접 사용을 해봤을 때 1개월도 못가고 애드센스에서 Block 처리를 당했다.
(프로그램도 사용하기 엄청 복잡했다. 모든 움직임 하나하나에 데이터값을 넣어서 분간을 못하게 만들었음.)
구글은 이미 빠르게 이런 자동화 관련된 것을 분석하고 구분할 수 있는 시스템을 가지고 있었고, 2018년부터 모바일 중심 및 빅데이터 시스템이 도입이 되면서 이 부분을 강화하기 시작했다.
그렇다면 네이버는 어떠한가???
네이버 쇼핑에서 자동 트래픽 넣는것 하지말아야 하는 이유
네이버 역시 이러한 부분을 잡을 수 있다.
일단 네이버는 데이터 센터에 기본적으로 방화벽이라는 것이 있고, 들어오는 IP 관련하여 분간을 할 수 있다. 그리고 네이버 블록, 쇼핑, 지식인은 네이버 자사 서버에서 운영이 되는 것이고, 어디에서 어떤 기기에 접속하는지도 알수 있다. 데이터 분석 및 결과값이 명확하다는 것이다.
그럼 외부에서 넣으면 된다고??
그렇게하려면 들어오는 IP를 다 틀리게해야한다. 그런데 우리나라 IP는 일단 해외처럼 Proxy를 상업화하지 않는다. (불법임) 허용해주는 것이 있는데, KT에서 백본을 이용하여 3개월에 한번씩 몇만개를 바꿔서 Proxy를 바꿔주는 것을 구매해서 사용할 수 있는데, 이것은 개발용이다.
(예를 들어서 시스템 과부하 또는 시스템 운영 TEST와 같은것을 위해서 쓰는 것임.)
내가 봤을 때 네이버 쇼핑 자동 트래픽 넣는 것이 이러한 IP를 이용해서 사용하는 것 같다.
(해외에서 회전율이 높은 Proxy를 판매하지만, 한국 IP는 일단 굉장히 비싸다. 그래서 많은 돈을 들여서 이런 프록시를 쓰지는 않을 것이다. 단가가 높은 것을 판매하는 것이라면 모르겠지만, 그렇게 하기에는 국내 IP 시장은 일단 작다!!! 그래서 투자 대비 벌어들이는 ROI 비율이 높지 않을 것이다.)
위와 같은 국내 Proxy는 사용자가 많기때문에 일단 IP를 수집하기가 쉽다. 왜??? 많은 사람들이 그 IP를 돈주고 사용할 테니깐!!!
‘개인적으로 잡아내는 것도 사람이 많이 몰리는 쇼핑몰의 Top10만 분석해서 거기에서 트래픽과 구매 전환 비율, 지역별 접속, ID 접속 기기와 IP 그리고 구매 IP 데이터만 비교 분석해도 위에 허수의 IP를 분석하기 쉬울듯하다.
이제는 이런 비교 분석을 하는데 있어서 빅데이터나 AI를 이용하면 빠르고 쉽게 데이터 결과치를 얻을 수 있을것이다.
이렇게 무섭게 진화하는 기술력을 뚫고, 자동 프로그램이 성공한다????
말도 안되는 것이다.
성공한다고 해도 초기 데이터가 쌓이기 전이겠지!!!
그리고 우리나라 네트워크는 KT, SK, LG를 반드시 거쳐서 들어오게 된다. 이를 피할 수는 없다!
기본적으로 이 3상은 우리나라 네트워크 기준이기 때문에 데이터는 쌓이게 된다는 사실!
한마디로 자동 프로그램은 이제 사용해서 안되는 가장 큰 이유는 접속하는 사람 그리고 내가 방문하는 사이트를 기준점으로 데이터를 모아서 비교분석하면 봇인지 사람인지 행위데이터 결과값을 얻어낼 수 있는것이다.
그러니 비싼돈 들여서 자동 프로그램은 구매하지마라!!!
특히 AI를 이용해서 무엇인가를 하는 시스템이라면 더더욱 자동 프로그램은 하지마라!!
돈버리고 시간버리는 것이다.
무엇보다 이를 뚫기 위해서는 이를 만든 사람이 굉장한 비용을 들여서 매번 업데이트를 하고, 비싸고 안전한 IP를 구매해서 써야하는데, 일단 단가도 안맞고, 이 단가를 맞추기위해 많은 사람들에게 팔아야하는데, 이렇게 많은 사람들이 쓰게되면 결국에 데이터가 빠르게 쌓이기때문에 금방 무용지물이 될 것이다.
그냥 자동 프로그램은 사용하지 마라!!!
이게 답이고, 지금 당장 통한다고 기뻐하지마라!!
데이터 쌓이면, 다 막히게 된다는 사실을 기억하길 바란다!!
- 2023년 9월 알고리즘 업데이트로 자동 프로그램 AI 글 관련하여 안좋은 영향을 받을 수 있음 : 글보기
- 핵심은 자동 프로그램을 썼을 때 행위를 하기위해서 Bot을 쓰던 매크로를 쓰던 움직임이 있어야 하는데 이러한 움직임에는 행위를 하는 서버가 있어야하고, 이 서버에서 사이트에 연결을 하기위한 경로가 있다는 것이다.
- 이러한 자동 프로그램의 경로와 행위에 대한 대량 움직임에 대한 감지를하고 집계하면 잡아내는것은 어렵지 않다.
- PBN, 백링크 쓰다가 걸리면 도메인 버려야한다는 증거