Для маломощных ноутов, на которых «нещадно тормозит винда», существует облегченный вариант Юбунты — Lubuntu, lubuntu.net/
Вариант установки dual-boot, параллельно с Виндой 8.1, описан здесь (на англ.): blog.dataparksearch.org/562
0
Убунту стала бы литать быстрее :)
0
Десятка побыстрее будет.
0
У маков генетиские проблемы с сетью, периодически теряет соединение. Все маководы матерятся, но продолжают любить свои маки :)
0
Видео лекции:
0
Ну а что тогда было сделано в Сочи, об этом можно прочитать здесь: arch-sochi.ru/2009/11/stroyka1930-e/
0
Сочи получил статус города в 1917 году.
Церковь на третьем фото построена в 1914 году.
Церковь на третьем фото построена в 1914 году.
0
с охрененным русским акцентом аля Мутко :)
0
В фильме говорят о 22-й школе.
0
0
Он развивается, только смотреть надо в другом месте: code.google.com/p/dataparksearch/source/list
Например, появилась возможность искать смайлики вроде такого <3
Правда это «сломало» поиск фраз, но это починиться обязательно. Из-за этой поломки собственно рейтинг и «грешит».
Например, появилась возможность искать смайлики вроде такого <3
Правда это «сломало» поиск фраз, но это починиться обязательно. Из-за этой поломки собственно рейтинг и «грешит».
0
0
Домен в Host поправили, но формат файла — нет.
В существующем виде он вам не поможет.
В существующем виде он вам не поможет.
0
Спасибо, добавил в раздел «Торговля».
0
9,99K
в robots.txt ставить * в конце правил не нужно, это и так префиксы по определению, а вот боты не обязаны поддерживать wildcards (это не стандартное расширение, хотя и поддерживаемое большими поисковиками)
в robots.txt ставить * в конце правил не нужно, это и так префиксы по определению, а вот боты не обязаны поддерживать wildcards (это не стандартное расширение, хотя и поддерживаемое большими поисковиками)
0
смотрите бегущую строку местных ТВ-каналов. или дайте объявление туда.
0
2,54K
В robots.txt стоит добавить правило
Disallow: /?p=
это позволит убрать из индекса shortlink ссылки, дублирующие контент по canonical ссылкам. Google и вродебы и Яндекс умеют сами вычищать все, кроме canonical, а вот остальные — вопрос.
В robots.txt стоит добавить правило
Disallow: /?p=
это позволит убрать из индекса shortlink ссылки, дублирующие контент по canonical ссылкам. Google и вродебы и Яндекс умеют сами вычищать все, кроме canonical, а вот остальные — вопрос.
0
Так там в основном образование, а не наука (школы, институты).
0
Спасибо.
Если вы автор сайта, посмотрите, что у вас в www.sochi-cb.ru/robots.txt
Этот файл дожен быть в формате text/plain, т.е. простой текстовый файл. А в директиве Host: должен указываться доменное имя главного зеркала, я так понимаю, это www.sochi-cb.ru
Если вы автор сайта, посмотрите, что у вас в www.sochi-cb.ru/robots.txt
Этот файл дожен быть в формате text/plain, т.е. простой текстовый файл. А в директиве Host: должен указываться доменное имя главного зеркала, я так понимаю, это www.sochi-cb.ru


Maxime