Close

구글 AI 연구를 위한 robots.txt의 보완 프로토콜 공개토론 시작

  • robots.txt 는 거의 30년 전에 만들어졌음
    • 웹 게시자가 검색 엔진이 콘텐츠 크롤링 하는 방법을 제어할 수 있는 간단하고 투명한 방법
  • 급발전중인 AI & 연구에 있어서 좀 더 머신-리더블한 콘텐츠 제어 방안이 필요하다고 생각
  • 보완 프로토콜을 논의하기 위해 웹/A…

    출처 : GeekNews – 개발/기술/스타트업 뉴스 서비스

Leave a Reply

Your email address will not be published. Required fields are marked *

이 사이트는 스팸을 줄이는 아키스밋을 사용합니다. 댓글이 어떻게 처리되는지 알아보십시오.

© 2024 NORICOMPANY