<?xml version="1.0" encoding="utf-8"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
	<channel>
		<title><![CDATA[Форум ReadyScript &mdash; Как правильно составить robots.txt для ReadyScript?]]></title>
		<link>https://forum.readyscript.ru/topic/1459/kak-pravilno-sostavit-robotstxt-dlya-readyscript/</link>
		<atom:link href="https://forum.readyscript.ru/feed/rss/topic/1459/" rel="self" type="application/rss+xml" />
		<description><![CDATA[Недавние сообщения в теме «Как правильно составить robots.txt для ReadyScript?».]]></description>
		<lastBuildDate>Mon, 08 Jan 2018 15:57:25 +0000</lastBuildDate>
		<generator>PunBB</generator>
		<item>
			<title><![CDATA[Re: Как правильно составить robots.txt для ReadyScript?]]></title>
			<link>https://forum.readyscript.ru/post/8405/#p8405</link>
			<description><![CDATA[<p>Спасибо, добавил Ваш вариант.</p>]]></description>
			<author><![CDATA[null@example.com (Сергей)]]></author>
			<pubDate>Mon, 08 Jan 2018 15:57:25 +0000</pubDate>
			<guid>https://forum.readyscript.ru/post/8405/#p8405</guid>
		</item>
		<item>
			<title><![CDATA[Re: Как правильно составить robots.txt для ReadyScript?]]></title>
			<link>https://forum.readyscript.ru/post/8400/#p8400</link>
			<description><![CDATA[<p><a href="http://forum.readyscript.ru/topic/1136/pomogite-zakryt-dubli-stranits-v-indekse/">http://forum.readyscript.ru/topic/1136/ … v-indekse/</a><br />к примеру</p>]]></description>
			<author><![CDATA[null@example.com (Ярослав)]]></author>
			<pubDate>Sat, 06 Jan 2018 13:32:23 +0000</pubDate>
			<guid>https://forum.readyscript.ru/post/8400/#p8400</guid>
		</item>
		<item>
			<title><![CDATA[Как правильно составить robots.txt для ReadyScript?]]></title>
			<link>https://forum.readyscript.ru/post/8396/#p8396</link>
			<description><![CDATA[<p>Добрый день</p><p>Обратил внимание в панели Яндекс.Вебмастера, что в индекс попадает очень много мусора.</p><p>к примеру вот такие страницы</p><p>/catalog/morskoy-flot/?p=2&amp;sort=dateof&amp;nsort=asc<br />/catalog/voennye-korabli/?pageSize=16</p><p>Подскажите, есть ли у Вас пример правильного robots.txt, в котором были бы прописаны все необходимые страницы (категории, карточки товара, новости и т.п.), а все остальные с непонятными url были бы закрыты от индекса?</p><p>Заранее спасибо за ответ!</p>]]></description>
			<author><![CDATA[null@example.com (Сергей)]]></author>
			<pubDate>Thu, 04 Jan 2018 15:27:28 +0000</pubDate>
			<guid>https://forum.readyscript.ru/post/8396/#p8396</guid>
		</item>
	</channel>
</rss>
