이번 글에서는 구글 검색 노출을 위하여 갖추어야 하는 SEO 작업 중에서 구글이 탐색할 수 있는 페이지의 조건에 대하여 다루도록 하겠습니다,
# 링크의 설정
<a> www. 검색 노출 불가능. com </a>
<a href = "www. 검색 노출 가능. com "> 검색 노출 </a>
- 일반적인 경우에는 위와 같은 실수를 웹디자이너들이 하는 경우는 거의 없다고 보시면 되며, 만약에 이러한 실수가 벌어진 경우는 아직 html에 미숙한 사람이 html을 편집하는 과정에서 벌어진다고 보시면 되겠습니다.
# HTTP 헤더 허용 확인
우리가 사이트를 이용함에 있어서 URL을 보면 가장 앞쪽에 http:// 또는 https:// 이라고 표시가 됩니다. 이것이 바로 http 헤더이며 이 http 헤더 뒤에 요청 해더와 응답 헤더 일반 헤더로 종류가 구분되며 사이트가 어떠한 동작을 할지를 결정합니다. 구글은 http 헤더를 적용하는 웹사이트만을 탐색하며 http 헤더를 허용하지 않는 웹사이트들은 탐색하지 못합니다.
- 우리가 사이트를 이용함에 있어서 URL을 보면 가장 앞쪽에 http:// 또는 https:// 이라교 표시가 됩니다. 이것이 바로 http 헤더이며 이 http 헤더 뒤에 요청해더와 응답헤더 일반헤더로 종류가 구분되어지며 사이트가 어떠한 동작을 할 지를 결정합니다.
# 링크의 개수를 제한하라
구글의 검색엔진인 구글 봇은 크게 3가지의 과정을 거쳐서 검색 결과를 게재합니다. 그 과정은 크롤링, 색인 생성, 검색 게 제입니다. 여기서 링크의 개수를 제한하는 이유가 있는 과정은 크롤링에 있습니다. 먼저, 크롤링의 정의에 대해서 다루자면 크롤링은 구글이 웹 사이트 및 웹페이지들에 퍼져 있는 데이터들을 인식하는 과정입니다. 예를 들자면 " 여기에 A라는 정보가 있다"라는 것을 인식하는 것입니다. 이 인식 과정이 끝나면 그 데이터들을 저장한 뒤에 검색자들에게 보여주게 되는 것입니다.
이 크롤링의 원리는 '링크'에 있습니다. 구글 봇은 인터넷 상에 무수히 퍼져 있는 링크들을 타고 돌아다니며 정보를 몹습니다. 하지만 하나의 페이지 안에 무수히 많은 수백, 수천 개의 링크가 존재한다면 구글은 이 웹 페이지를 크롤링함에 애를 먹게 되며 크롤링 대상에서 제외할 수밖에 없는 것입니다.
# robots.txt의 설정
robots.txt 란 Robots Exclusion standard text를 뜻하는 텍스트 문서로 한국말로는 로봇 배제 표준을 뜻합니다. 우리는 사이트마다 이 로봇 배제표준을 설정하여 구글 봇 등의 검색엔진이 우리의 사이트에 와서 어떠한 정보들을 쓸어갈지를 선택합니다. 만약에 우리가 이 로봇 배제 표준에 구글 봇은 안된다고 적어둔다면 구글 봇은 우리의 사이트를 크롤링해가지 못하게 됩니다.
따라서, 만약 구글 서치 콘솔에서 확인하였을 때에 자신의 웹사이트 크롤링에 문제가 있다고 했을 때 robots.txt 파일의 문제가 있는지를 확인하셔야 합니다.
여기까지 구글 검색 노출을 위하여 갖추어야 하는 SEO 작업 중에서 구글이 탐색할 수 있는 페이지의 조건에 대하여 다루었습니다.
# 본문과 관련된 다른 글
[HTML] 웹페이지 만들기 (a href 태그 활용)
https://csapproach.tistory.com/entry/HTML-웹페이지-만들기-a-href-태그-활용
[HTML] 웹페이지 만들기 (a href 태그 활용)
이번 글에서는 a href 태그를 활용하여 웹페이지를 만드는 데에 있어서 가장 중요한 링크 이동방식 및 원리에 대하여 다루도록 하겠습니다. # 예시 상황 먼저, 아래 예시 상황에 대해서 설명드리
csapproach.tistory.com
구글 SEO, 검색 노출의 원리
https://shforfuture.blogspot.com/2022/06/seo.html
구글 SEO, 검색 노출의 원리
엑셀. html. 정치.
shforfuture.blogspot.com
댓글