<?xml version="1.0" encoding="utf-8"?>
<feed xmlns="http://www.w3.org/2005/Atom">
	<title type="html"><![CDATA[Форум ReadyScript &mdash; Как правильно составить robots.txt для ReadyScript?]]></title>
	<link rel="self" href="https://forum.readyscript.ru/feed/atom/topic/1459/" />
	<updated>2018-01-08T15:57:25Z</updated>
	<generator>PunBB</generator>
	<id>https://forum.readyscript.ru/topic/1459/kak-pravilno-sostavit-robotstxt-dlya-readyscript/</id>
		<entry>
			<title type="html"><![CDATA[Re: Как правильно составить robots.txt для ReadyScript?]]></title>
			<link rel="alternate" href="https://forum.readyscript.ru/post/8405/#p8405" />
			<content type="html"><![CDATA[<p>Спасибо, добавил Ваш вариант.</p>]]></content>
			<author>
				<name><![CDATA[Сергей]]></name>
				<uri>https://forum.readyscript.ru/user/230/</uri>
			</author>
			<updated>2018-01-08T15:57:25Z</updated>
			<id>https://forum.readyscript.ru/post/8405/#p8405</id>
		</entry>
		<entry>
			<title type="html"><![CDATA[Re: Как правильно составить robots.txt для ReadyScript?]]></title>
			<link rel="alternate" href="https://forum.readyscript.ru/post/8400/#p8400" />
			<content type="html"><![CDATA[<p><a href="http://forum.readyscript.ru/topic/1136/pomogite-zakryt-dubli-stranits-v-indekse/">http://forum.readyscript.ru/topic/1136/ … v-indekse/</a><br />к примеру</p>]]></content>
			<author>
				<name><![CDATA[Ярослав]]></name>
				<uri>https://forum.readyscript.ru/user/74/</uri>
			</author>
			<updated>2018-01-06T13:32:23Z</updated>
			<id>https://forum.readyscript.ru/post/8400/#p8400</id>
		</entry>
		<entry>
			<title type="html"><![CDATA[Как правильно составить robots.txt для ReadyScript?]]></title>
			<link rel="alternate" href="https://forum.readyscript.ru/post/8396/#p8396" />
			<content type="html"><![CDATA[<p>Добрый день</p><p>Обратил внимание в панели Яндекс.Вебмастера, что в индекс попадает очень много мусора.</p><p>к примеру вот такие страницы</p><p>/catalog/morskoy-flot/?p=2&amp;sort=dateof&amp;nsort=asc<br />/catalog/voennye-korabli/?pageSize=16</p><p>Подскажите, есть ли у Вас пример правильного robots.txt, в котором были бы прописаны все необходимые страницы (категории, карточки товара, новости и т.п.), а все остальные с непонятными url были бы закрыты от индекса?</p><p>Заранее спасибо за ответ!</p>]]></content>
			<author>
				<name><![CDATA[Сергей]]></name>
				<uri>https://forum.readyscript.ru/user/230/</uri>
			</author>
			<updated>2018-01-04T15:27:28Z</updated>
			<id>https://forum.readyscript.ru/post/8396/#p8396</id>
		</entry>
</feed>
