Trang nhất/Kiến thức Tin học/Website |
Cách sử dụng Robots.txt |
(Download CTIM) Gửi ngày 19 tháng 1 năm 2010 - 5436 lượt xem |
1. robots.txt : là gì?
- robots.txt là một file chứa các thông tin theo một cấu trúc xác định. Các thông tin này sẽ giới hạn khu vực truy cập của các search engine (vd: google, hoặc yahoo). Các search engine sẽ không đặt index tìm kiếm cho các khu vực giới hạn được ghi nhận trên robots.txt.
- Ví dụ: bạn không muốn các trang login, trang nội bộ, trang diễn đàn xuất hiện trên trang tìm kiếm ở Google, hãy thiết lập nó ở đây.
2. Hoạt động như thế nào?
- robots.txt hoạt động bằng cách xác định một user-agent và một command cho user-agent này.
- Các tham số có trong file robots.txt
-
- User-agent: khai báo tên search engine mà bạn muốn thiết lập khu vực truy cập với nó, vd: Googlebot, Yahoo! Slurp
- Disallow: là khu vực mà bạn muốn khoanh vùng không cho phép search engine truy cập.
- Crawl-Delay: thông số này xác định thời gian (tính bằng giây) search phải đợi trước khi chuyển sang site tiếp theo. Điều này sẽ có ích để ngăn chặn các search engine load server tùy tiện.
- Dấu # được sử dụng trước các dòng cần comment.
3. Ví dụ: robots.txt
- Cho phép tất cả các search engine có thể spider toàn bộ site:
User-agent: * Disallow:
- Chặn tất cả các search engine truy cập cgi-bin
User-agent: * Disallow: /cgi-bin/
- Không cho phép Yahoo! Slurp truy cập thư mục admin
User-agent: yahoo! Slurp Disallow: /admin/
- Không cho phép tất cả các search engine truy cập vào bất kì khu vực nào:
User-agent: * Disallow: /
|
Tác giả: Sưu tầm |
|
Tags:
|
|
|
|
|
Các bài mới nhất:
|
|
Các bài mới trong cùng danh mục:
|