From 781214666654c9055bcfe6d5bcffcc9306d546a2 Mon Sep 17 00:00:00 2001 From: "malykhin.dmitry" Date: Tue, 18 Mar 2014 23:12:33 +0400 Subject: [PATCH] Update russian translate --- locales/ru.lng | 802 +++++++++++++++++++++++++++++++------------------ 1 file changed, 503 insertions(+), 299 deletions(-) diff --git a/locales/ru.lng b/locales/ru.lng index 56b328163..a5499220e 100644 --- a/locales/ru.lng +++ b/locales/ru.lng @@ -1,4 +1,4 @@ -# ru.lng +# ru.lng # Английский/Немецкий-->Русский # ----------------------- # This is a part of YaCy, a peer-to-peer based web search engine @@ -43,7 +43,7 @@ Access Tracker==Доступ к трекеру Server Access Overview==Обзор доступа к серверу This is a list of \#\[num\]\# requests to the local http server within the last hour.==Число запросов на локальный сервер http в течение последнего часа - #[num]# This is a list of requests to the local http server within the last hour.==Это список запросов на локальный http-сервер в течение часа. -Showing \#\[num\]\# requests.==Показать #[num]# запросов. +Showing \#\[num\]\# requests.==Показано #[num]# запросов. >Host<==>Хост< >Path<==>Путь< Date<==Дата< @@ -208,12 +208,12 @@ No Blacklist selected==Не выбран черный список #File: BlacklistImpExp_p.html #--------------------------- -#Blacklist Import==Импорт черного списка +Blacklist Import==Импорт черного списка Used Blacklist engine:==Используется черный список: Import blacklist items from...==Импортировать значения черного списка из... other YaCy peers:==других узлов YaCy: "Load new blacklist items"=="Загрузка новых значений черного списка" -#URL:==URL: +URL:==по ссылке: plain text file:<==простого текстового файла:< XML file:==XML файла: Upload a regular text file which contains one blacklist entry per line.==Загрузить обычный текстовый файл, который содержит черный список построчно. @@ -309,7 +309,7 @@ YaCy \'\#\[clientname\]\#\': Bookmarks==YaCy '#[clientname]#': Закладки The bookmarks list can also be retrieved as RSS feed. This can also be done when you select a specific tag.==Список закладок можно также получить как RSS-ленту. Это может быть сделано при выборе конкретного тега . Click the API icon to load the RSS from the current selection.==Нажмите на иконку API для загрузки RSS из текущего выделения. -To see a list of all APIs, please visit the API wiki page.==Для просмотра списока всех API, пожалуйста, посетите wiki-страницу API. +To see a list of all APIs, please visit the API wiki page.==Для просмотра списка всех API, пожалуйста, посетите wiki-страницу API.

Bookmarks==

Закладки Bookmarks \(==Закладки \( #Login==Логин @@ -343,13 +343,13 @@ Edit==Изменить Delete==Удалить Folders==Папки Bookmark Folder==Каталог закладок -#Tags==Тэги +Tags==Тэги Bookmark List==Список закладок previous page==предыдущая страница next page==следующая страница All==Все Show==Показать -Bookmarks per page.==Закладок на странице. +Bookmarks per page.==закладок на странице #unsorted==несортированный #----------------------------- @@ -382,10 +382,10 @@ Username too short. Username must be >= 4 Characters.==Имя пользов No password is set for the administration account.==Пароль не установлен для учетной записи администратора. Please define a password for the admin account.==Пожалуйста, установите пароль для учетной записи администратора. Admin Account==Учетная запись администратора -Access from localhost without account==Доступ с своего компьютера возможен без учетной записи. +Access from localhost without account==Доступ со своего компьютера возможен без учетной записи. Access to your peer from your own computer \(localhost access\) is granted. No need to configure an administration account.==Доступ к узлу со своего компьютера разрешен. Нет необходимости настраивать учетную запись. Access only with qualified account==Доступ только с квалифицированной учетной записи -You need this only if you want a remote access to your peer.==Это нужно только, если вы желаете открыть удалённый доступ к вашему узлу. +You need this only if you want a remote access to your peer.==Необходимо, если вы желаете открыть удалённый доступ к вашему узлу. Peer User:==Пользователь узла: New Peer Password:==Новый пароль узла: Repeat Peer Password:==Повторите пароль узла: @@ -457,8 +457,8 @@ Your port has changed. Please wait 10 seconds.==Порт вашего узла The peer port was changed successfully. Your browser will be redirected to the new location in 5 seconds.==Порт узла был успешно изменён. Ваш браузер перейдёт на новую страницу в течение 10 секунд. Your YaCy Peer needs some basic information to operate properly==Укажите основную информацию для работы вашего узла Select a language for the interface==Выберите язык интерфейса -Use Case: what do you want to do with YaCy:==Цель использования YaCy: -Community-based web search==Групповой веб-поиск +Use Case: what do you want to do with YaCy:==Выберите цель использования YaCy: +Community-based web search==Групповой вэб-поиск Join and support the global network \'freeworld\', search the web with an uncensored user-owned search network==Регистрация и поддержка глобальной сети \'FreeWorld\', поиск в интернете без цензуры пользовательской поисковой сети. Search portal for your own web pages==Поиск на ваших собственных сайтах Your YaCy installation behaves independently from other peers and you define your own web index by starting your own web crawl. This can be used to search your own web pages or to define a topic-oriented search portal.==Ваш YaCy ведет себя независимо от других участников сети, и вы имеете свой собственный веб-индекс, начав самостоятельно индексировать веб. Это может быть использовано для поиска на собственном сайте или для создания тематического поискового портала. @@ -553,9 +553,70 @@ For the discover function the web graph option of the web structure index \(\'modify Solr Schema\'\)==('Изменить схему базы Solr?') #----------------------------- +#File: IndexFederated_p.html +#----------------------------- +Index Sources & Targets==Источники индекса и цели + YaCy supports multiple index storage locations.==YaCy поддерживает несколько путей к хранилищам индекса. +As an internal indexing database a deep-embedded multi-core Solr is used and it is possible to attach also a remote Solr.==Используется внутренняя база данных индекса встроеная в мульти-ядро Solr, но также может использоваться и удалённая база Solr. +Solr Search Index==База данных Solr +Solr stores the main search index. It is the home of two cores, the default 'collection1' core for documents and the 'webgraph' core for a web structure graph. Detailed information about the used Solr fields can be edited in the Schema Editor.==Solr содержит главный поисковый индекс. База данных состоит из двух ядер: по-умолчанию ядро 'collection1' для документов и ядро 'webgraph' для вэб-контента. База данных Solr может быть подробно настроена через редактор схемы. +Lazy Value Initialization ==Ленивые значения инициализации  +If checked, only non-zero values and non-empty strings are written to Solr fields.==Если отмечено, то только не нулевые значения и не пустые строки, будут записаны в поля Solr. +Use deep-embedded local Solr ==Использовать встроенную локальную базу Solr  +This will write the YaCy-embedded Solr index which stored within the YaCy DATA directory.==Для записи данных будет использоваться встроенная база Solr, которая хранится в папке DATA. +The Solr native search interface is accessible at
==Интерфейс поиска Solr доступен по ссылке +/solr/select?q=*:*&start=0&rows=3&core=collection1==/solr/select?q=*:*&start=0&rows=3&core=collection1 +for the default search index \(core: collection1\) and at
==для поискового индекса по-умолчанию (ядро: collection1) и
+/solr/select?q=*:*&start=0&rows=3&core=webgraph==/solr/select?q=*:*&start=0&rows=3&core=webgraph +for the webgraph core.
==для ядра вэб-контента.
+If you switch off this index, a remote Solr must be activated.==Если вы выключите использование встроенной базы, то будет активирована удалённая база Solr. +Use remote Solr server\(s\)==Использовать удалённую базу Solr +Solr Hosts==Хосты Solr +Solr Host Administration Interface==Интерфейс управления Solr +Index Size==Документов в индексе +It's easy to attach an external Solr to YaCy.==Присоединить внешнюю базу Solr просто. +This external Solr can be used instead the internal Solr. It can also be used additionally to the internal Solr, then both Solr indexes are mirrored.==Внешняя база данных Solr будет использоваться вместо встроенной. Вы также можете использовать дополнительно встроенную базу, но тогда индексы будут сохраняться в обе базы. +Solr URL\(s\)==Ссылки на базу Solr +You can set one or more Solr targets here which are accessed as a shard. For several targets, list them using a ',' \(comma\) as separator.==Вы можете установить одну или более баз Solr, которые будут доступны распределённо. Для перечисления нескольких баз, используйте ',' (запятую) в качестве разделителя. +The set of remote targets are used as shard of a complete index. The host part of the url is used as key for a hash function which selects one of the shards \(one of your remote servers\).==Установленные удалённые цели используются как единое целое. Часть ссылок на хосте используется как ключ для хэш-функции, который выбирается одним из сегментов (один из ваших удалённых серверов). +When a search request is made, all servers are accessed synchronously and the result is combined.==Когда выполнятся поисковый запрос, результат суммируется, так как все серверы доступны синхронно. +Sharding Method
==Метод сегментирования
+write-enabled \(if unchecked, the remote server\(s\) will only be used as search peers\)==Запись разрешена. Если не отмечено, то удалённый сервер будет использоваться только для поиска узлов. +Web Structure Index==Индекс вэб-контента +The web structure index is used for host browsing \(to discover the internal file/folder structure\), ranking \(counting the number of references\) and file search \(there are about fourty times more links from loaded pages as in documents of the main search index\).==Индекс вэб-контента используется для просмотра хостов (поиск локальных файлов и папок), ранжирования (подсчет числа ссылок) и поиска файлов (примерно в 40 раз больше ссылок из загруженных страниц в документах главного поискового индекса). +use citation reference index \(lightweight and fast\)==Использовать ссылки индекса цитирования (легкий и быстрый) +use webgraph search index \(rich information in second Solr core\)==Использовать поисковый индекс вэб-графики (больше информации во втором ядре Solr) +"Set"=="Сохранить" +Peer-to-Peer Operation==P2P-операции +The 'RWI' \(Reverse Word Index\) is necessary for index transmission in distributed mode. For portal or intranet mode this must be switched off.=='RWI' (Обратный индекс слов) необходим для передачи индекса в распределённом режиме. Для поиска в интранете или на локальном сайте он должен быть отключен. +support peer-to-peer index transmission \(DHT RWI index\)==Включить поддержку P2P-передачу индекса (DHT RWI индекс) +"Set"=="Сохранить" +#----------------------------- + + +#File: IndexSchema_p.html +#--------------------------- +Solr Schema Editor==Редактор схемы Solr +If you use a custom Solr schema you may enter a different field name in the column 'Custom Solr Field Name' of the YaCy default attribute name==При необходимости, вы можете использовать различные названия полей в колонке "Пользовательское имя поля Solr" вместо стандартных. +Select a core:==Выберите ядро +the core can be searched at==которое может быть найдено по ссылке +Active==Включено +Attribute==Аттрибут +Custom Solr Field Name==Пользовательское имя поля Solr +Comment==Комментарий +"Set"=="Сохранить" +"reset selection to default"=="Вернуть значения по-умолчанию" +>Reindex documents<==>Переиндексация документов< +If you unselected some fields, old documents in the index still contain the unselected fields.==Если вы не отметили некоторые поля, старые документы в индексе по прежнему будут содержать неотмеченные поля. +To physically remove them from the index you need to reindex the documents.==Для физического удаления таких полей из индекса, вам необходимо переиндексировать документы. +Here you can reindex all documents with inactive fields.==Здесь вы можете запустить переиндексацию всех документов с неотмеченными полями. +"reindex Solr"=="Начать переиндексацию" +You may monitor progress \(or stop the job\) under IndexReIndexMonitor_p.html==Посмотреть или остановить ход работы вы можете на странице переиндексации. +#--------------------------- + #File: ConfigHTCache_p.html #--------------------------- -Hypertext Cache Configuration==Настройка кэша гипертекста +Hypertext Cache Configuration==Настройка кэша The HTCache stores content retrieved by the HTTP and FTP protocol. Documents from smb:// and file:// locations are not cached.==Кэш содержит данные полученные по HTTP и FTP протоколу. Документы из smb:// и file:// не кэшируются. The cache is a rotating cache: if it is full, then the oldest entries are deleted and new one can fill the space.==Если кэш заполнен, то старые записи будут удалены и заменены на новые. HTCache Configuration==Настройка кэша @@ -628,7 +689,7 @@ Configuration options and defaults for \'yconf\':==Опции конфигура Defaults<==По-умолчанию< url<==URL< #is a mandatory property - no default<==является обязательным свойством< -#YaCy P2P Web Search==YaCy P2P Веб поиск +#YaCy P2P Web Search==YaCy P2P Вэб-поиск Size and position \(width \| height \| position\)==Размер и положение \(ширина \| высота \| положение \) Specifies where the dialog should be displayed. Possible values for position: \'center\', \'left\', \'right\', \'top\', \'bottom\', or an array containing a coordinate pair \(in pixel offset from top left of viewport\) or the possible string values \(e.g. \[\'right\',\'top\'\] for top right corner\)==Специально где диалог должен быть показан. Возможные значения для позиционирования: \'центр\', \'слева\', \'справа\', \'сверху\', \'снизу\', или массив содержащий необходимую пару координат \(в пикселях от верхнего левого угла области просмотра\) или возможные строковые значения \(напр. \[\'right\',\'top\'\] для верхнего правого просмотра\) Animation effects \(show | hide\)==Анимационные эффекты \(показать | скрыть\) @@ -833,10 +894,10 @@ For explanation please look into defaults/yacy.init==Дополнительны #File: ConfigRobotsTxt_p.html #--------------------------- -Exclude Web-Spiders==Блокировать пауков +Exclude Web-Spiders==Доступ к вэб-интерфейсу Here you can set up a robots.txt for all webcrawlers that try to access the webinterface of your peer.==В файле robots.txt вы можете указать параметры ограничения доступа к вэб-интерфейсу вашего узла. -is a volunteer agreement most search-engines \(including YaCy\) follow.==ist ein freiwilliger Standard den die meisten Suchmaschinen (inkl. YaCy) befolgen. -It disallows crawlers to access webpages or even entire domains.==Er kann Crawlern den Zugriff auf Webseiten oder sogar ganze Domains verbieten. +is a volunteer agreement most search-engines \(including YaCy\) follow.== +It disallows crawlers to access webpages or even entire domains.==Таким образом, вы закроете доступ индексаторам к вэб-странице вашего узла или даже целому домену. Deny access to==Закрыть доступ к Entire Peer==Узлу целиком Status page==Состоянию страницы @@ -882,6 +943,7 @@ menu.=. >Administration<==>Администрирование< >Web Search<==>Вэб-поиск< >File Search<==>Поиск файлов< +>Tutorial<==>Помощь< >Host Browser<==>Просмотр хостов< >About Us<==>О пользователе< >Help / YaCy Wiki<==>YaCy Wiki< @@ -919,14 +981,15 @@ http://url-of-the-search-result.net==http://url-of-the-search-result.net #File: ConfigUpdate_p.html #--------------------------- -Manual System Update==Ручное обновление системы +>System Update<==>Обновление системы< +Manual System Update==Ручное обновление Current installed Release==Текущая установленная версия Available Releases==Доступные версии >changelog<==>список изменений< > and <==> и < > RSS feed<==> RSS лента< -\(unsigned\)==(unsigniert) -\(signed\)==(signiert) +\(unsigned\)==(не подписано) +\(signed\)==(подписано) "Download Release"=="Загрузить версию" "Check for new Release"=="Проверить на новые обновления" Downloaded Releases==Загруженные обновления @@ -949,7 +1012,7 @@ manual update==Ручное обновление no automatic look-up, updates can be made manually using this interface \(see options above\)==Обновление можно сделать вручную на этой странице. automatic update==Автоматическое обновление add the following line to==добавьте строку в файл -updates are made within fixed cycles:==обновления выполняются в установленные циклы: +updates are made within fixed cycles:==Обновление выполняется через установленный промежуток времени: Time between lookup==Время между проверками hours==часов Release blacklist==Черный список релизов @@ -957,7 +1020,7 @@ regex on release number strings==список регулярных выраже Release type==Тип релиза only main releases==только финальные релизы any release including developer releases==любые версии, включая версии для разработчиков -Signed autoupdate:==Подписанные автообновления: +Signed autoupdate:==Подписанные обновления only accept signed files==принимать только подписанные файлы "Submit"=="Применить" Accepted Changes.==Принятые изменения. @@ -965,7 +1028,7 @@ System Update Statistics==Статистика обновления систем Last System Lookup==Последняя проверка системы never==никогда Last Release Download==Последняя загрузка версии -Last Deploy==Последние обновления +Last Deploy==Последнее обновление #----------------------------- #File: Connections_p.html @@ -1105,11 +1168,11 @@ These are monitoring pages for the different indexing queues.==Это стран YaCy knows 5 different ways to acquire web indexes. The details of these processes \(1-5\) are described within the submenu's listed==YaCy получает вэб-индекс пятью различными способами. Детали этих процессов (1-5) вы можете увидеть, выбрав пункты меню справа. above which also will show you a table with indexing results so far. The information in these tables is considered as private,==Так как представленная информация содержит личные сведения, so you need to log-in with your administration password.==то потребуется ввести пароль администратора. -Case \(6\) is a monitor of the local receipt-generator, the opposed case of \(1\). It contains also an indexing result monitor but is not considered private==Fall (6) ist ein Monitor des lokalen Empfangs-Generator, der Gegensatz zu (1). Er enthält ausserdem einen Index Resulate Monitor, ist aber nicht privat, -since it shows crawl requests from other peers.==da er Crawl Anfragen von anderen Peers zeigt. -Case \(7\) occurs if surrogate files are imported==Fall (7) tritt ein wenn Surrogat Dateien importiert werden. -The image above illustrates the data flow initiated by web index acquisition.==Das obige Bild zeigt den Datenfluss, der durch die Index Erwerbung über das Internet entsteht. -Some processes occur double to document the complex index migration structure.==Einige Prozesse erscheinen doppelt, um die Komplexizität der Index Verteilungs Struktur zu erklären. +Case \(6\) is a monitor of the local receipt-generator, the opposed case of \(1\). It contains also an indexing result monitor but is not considered private==Монитор (6) показывает локальный приём индекса, в отличие от монитора (1). Здесь также показываются результаты индексирования не содержащие личные данные, +since it shows crawl requests from other peers.==а только запросы индексаторов от других узлов. +Case \(7\) occurs if surrogate files are imported==Монитор (7) показывает замещающий импорт файлов +The image above illustrates the data flow initiated by web index acquisition.==На изображении выше показан поток данных, инициированный вэб-индексом. +Some processes occur double to document the complex index migration structure.==Некоторые процессы повторяются дважды. \(1\) Results of Remote Crawl Receipts==(1) Получение результатов удалённого индексирования This is the list of web pages that this peer initiated to crawl,==Здесь указаны вэб-страницы, инициированные вашим узлом для индексирования, but had been crawled by other peers.==но проиндексированные другими узлами. @@ -1125,7 +1188,7 @@ The index was crawled and contributed by other peers.==Индексация пр The url fetch was initiated and executed by other peers.==Полученные ссылки были иницированы и выполнены другими узлами. These links here have been transmitted to you because your peer is the most appropriate for storage according to==Эти ссылки были переданы вам, потому что ваш узел более подходит для их хранения, the logic of the Global Distributed Hash Table.==в соответствии с логикой глобальной DHT. -Use Case: This list may fill if you check the 'Index Receive'-flag on the 'Index Control' page==Anwendung: Dies Liste füllt sich, wenn Sie die 'Index Empfang' Option auf der 'Index Kontrolle' Seite aktiviert haben. +Use Case: This list may fill if you check the 'Index Receive'-flag on the 'Index Control' page==Этот список будет пополняться, если вы включите "Приём индекса" на странице "Конфигурация сети" \(4\) Results for Proxy Indexing==(4) Результаты индексирования через прокси These web pages had been indexed as result of your proxy usage.==Эти вэб-страницы были проиндексированы в результате использования вами прокси. No personal or protected page is indexed==Личные или защищённые страницы не индексируются. @@ -1139,34 +1202,37 @@ These web pages had been crawled by your own crawl task.==Эти вэб-стра Use Case: start a crawl by setting a crawl start point on the 'Index Create' page.==Запустите индексацию, указав начальную точку на странице "Индексирование/Сканер сети" \(6\) Results for Global Crawling==(6) Результаты глобального индексирования These pages had been indexed by your peer, but the crawl was initiated by a remote peer.==Эти страницы проиндексированы вашим узлом, но индексатор был инициирован удалённым узлом.. -This is the 'mirror'-case of process \(1\).==Dies ist der 'Gegensatz' Prozess zu (1). -Use Case: This list may fill if you check the 'Accept remote crawling requests'-flag on the 'Index Crate' page==Anwendung: Diese Liste füllt sich, wenn Sie 'Akzeptiere remote Crawling Anfragen' auf der 'Index erzeugen' Seite aktiviert haben. +This is the 'mirror'-case of process \(1\).==Это противоположность процессу (1). +Use Case: This list may fill if you check the 'Accept remote crawling requests'-flag on the 'Index Crate' page==Этот список будет пополняться, если вы включите "Выполнять удалённое индексирование" на странице "Удалённое индексирование". The stack is empty.==Список пуст. Statistics about \#\[domains\]\# domains in this stack:==В этой таблице данные о #[domains]# доменах: \(7\) Results from surrogates import==\(7\) Результаты замещающего импорта These records had been imported from surrogate files in DATA/SURROGATES/in==Эти данные импортированы из замещающих файлов в DATA/SURROGATES/in -Use Case: place files with dublin core metadata content into DATA/SURROGATES/in or use an index import method==Anwendungsfall: Dateien mit Dublin Core Metadaten Inhalt in das DATA/SURROGATES/in kopieren oder eine der Index Import Funktionen nutzen -\(i.e. MediaWiki import, OAI-PMH retrieval\)==(z.B. MediaWiki Dump Import, OAI-PMH Import\) -#Domain==Домен -#URLs=URLs -"delete all"=="удалить все" +Use Case: place files with dublin core metadata content into DATA/SURROGATES/in or use an index import method==Поместите файлы с метаданными контента стандарта дублинского ядра в DATA/SURROGATES/in или используйте способ импортирования индекса +\(i.e. MediaWiki import, OAI-PMH retrieval\)==(например, импорт MediaWiki дампов, импорт OAI-PMH\) +>Domain==>Домен +#>URLs==>Ссылки +"delete all"=="Удалить все" Showing all \#\[all\]\# entries in this stack.==Показаны все #[all]# записей. Showing latest \#\[count\]\# lines from a stack of \#\[all\]\# entries.==Показаны последние #[count]# записей из #[all]#. -"clear list"=="очистить список" +"clear list"=="Очистить список" #Initiator==Инициатор >Executor==>Исполняющий >Modified==>Изменено >Words==>Слова >Title==>Заголовок -#URL==URL +#URL==Ссылка "delete"=="Удалить" +>Collection==>Хранилище +Blacklist to use==Используется чёрный список +"del & blacklist"=="Удалить и блокировать" #----------------------------- #File: CrawlStartExpert_p.html #--------------------------- Expert Crawl Start==Начать расширенное индексирование Start Crawling Job:==Запустить индексирование: -You can define URLs as start points for Web page crawling and start crawling here.==Вы можете указать ссылки для начала индексирования и запустить индексирование здесь. +You can define URLs as start points for Web page crawling and start crawling here.==Здесь можете указать начальные ссылки и запустить индексирование. \"Crawling\" means that YaCy will download the given website, extract all links in it and then download the content behind these links.=="Индексирование" означает, что YaCy загрузит данные сайта, извлечёт все ссылки и загрузит содержимое по извлечённым ссылкам. This is repeated as long as specified under \"Crawling Depth\".==Длительность индексирования зависит от заданной "глубины индексирования". A crawl can also be started using wget and the==Индексирование можно также запустить, используя wget и @@ -1178,127 +1244,129 @@ A Crawl Job consist of one or more start point, crawl limitations and document f >Start Point<==>Начальная точка< One Start URL or a list of URLs:
\(must start with http:// https:// ftp:// smb:// file://\)==Одна или несколько ссылок:
(должна начинаться с http:// https:// ftp:// smb:// file://) -Define the start-url\(s\) here. You can submit more than one URL, each line one URL please.==Укажите начальную ссылку(ссылки) здесь. Вы можете указать несколько URL-ссылок, отдельными строками. +Define the start-url\(s\) here. You can submit more than one URL, each line one URL please.==Укажите начальную ссылку(ссылки) здесь. Вы можете указать несколько ссылок, отдельными строками. Each of these URLs are the root for a crawl start, existing start URLs are always re-loaded.==Каждая из этих ссылок загружается в начале индексирования, существующие ссылки всегда перезагружаются. ->From Link-List of URL<==>Из списка URL-ссылок< +>From Link-List of URL<==>Из списка ссылок< From Sitemap<==Из карты сайта< From File \(enter a path
within your local file system\)==Из файла (укажите путь
в пределах вашей локальной системы) -Existing start URLs are always re-crawled.==Existierende Start-URLs werden immer wieder gecrawled. -Other already visited URLs are sorted out as \"double\", if they are not allowed using the re-crawl option.==Andere bereits besuchte Seiten werden als 'doppelt' aussortiert, wenn diese nicht ausdrücklich per Re-crawl Option zugelassen wurden. +Existing start URLs are always re-crawled.==Существующие начальные ссылки всегда переиндексируются. +Other already visited URLs are sorted out as \"double\", if they are not allowed using the re-crawl option.==Уже посещённые ссылки сортируются как повторные, если не разрешена их переиндексация. A web crawl performs a double-check on all links found in the internet against the internal database. If the same url is found again,==Вэб-индексатор дважды сверяет все ссылки в интернете с внутренней базой данных. Если некоторые ссылки были найдены опять, then the url is treated as double when you check the \'no doubles\' option. A url may be loaded again when it has reached a specific age,== то ссылка считается повторной. В зависимости от возраста, ссылка может быть загружена повторно. #to use that check the \'re-load\' option. When you want that this web crawl is repeated automatically, then check the \'scheduled\' option.==Для автоматической проверки вы можете использовать планировщик. -#In this case the crawl is repeated after the given time and no url from the previous crawl is omitted as double.==In diesem Fall wird der Crawl erneut nach der eingestellten Zeit ausgeführt und keine URL aus einem vorhergegangenem Crawl wird als Dublette ausgelassen. +#In this case the crawl is repeated after the given time and no url from the previous crawl is omitted as double.==В этом случае индексация повторяется после указанного времени и повторные ссылки пропускаются. #Must-Match Filter==Фильтр совпадений Use filter==Использовать фильтр -Restrict to start domain==Auf Startdomain beschränken -Restrict to sub-path==Auf Sub-Pfad beschränken -#The filter is an emacs-like regular expression that must match with the URLs which are used to be crawled;==Dieser Filter ist ein emacs-ähnlicher regulärer Ausdruck, der mit den zu crawlenden URLs übereinstimmen muss; -#The filter is a regular expression==Dieser Filter ist ein Regulärer Ausdruck -#that must match with the URLs which are used to be crawled; default is \'catch all\'.==der auf die zum Crawlen verwendeten URLs zutreffen muss. Die Standard Einstellung ist 'alle zulassen'. -#Example: to allow only urls that contain the word \'science\', set the filter to \'.*science.*\'.==Beispiel: Um nur URLs zuzulassen, die das Wort 'Wissenschaft' beeinhalten, setzen Sie den Filter auf '.*Wissenschaft.*'. +Restrict to start domain\(s\)==Запретить запуск домена +Restrict to sub-path\(s\)==Запретить часть пути +#The filter is an emacs-like regular expression that must match with the URLs which are used to be crawled;==Фильтр это emacs-подобное регулярное выражение, которое должно совпадать с ссылками для индексации; +#The filter is a regular expression==Фильтр это регулярное выражение +#that must match with the URLs which are used to be crawled; default is \'catch all\'.==которые должны совпадать с ссылками для индексации; по-умолчанию 'берутся все'. +Example: to allow only urls that contain the word 'science', set the must-match filter to '.*science.*'.==Например, для разрешения только ссылок, содержащих слово 'science' , нужно установить фильтр '.*science.*'. You can also use an automatic domain-restriction to fully crawl a single domain.==Вы можете также использовать автоматическое ограничение домена при полном индексировании простого домена. -#Must-Not-Match Filter==Muss-nicht-entsprechen Filter +#Must-Not-Match Filter==Фильтр "не должно совпадать" #This filter must not match to allow that the page is accepted for crawling.==Dieser Filter muss nicht passen, um zu erlauben, dass die Seite zum crawlen akzeptiert wird. -#The empty string is a never-match filter which should do well for most cases.==Ein leeres Feld ist ein niemals-passend Filter, der in den meisten Fällen gute Dienste leisten sollte. -If you don't know what this means, please leave this field empty.==Wenn Sie nicht wissen, was dies bedeutet, lassen Sie das Feld einfach leer. -#Re-crawl known URLs:==Re-crawl bekannter URLs: -#It depends on the age of the last crawl if this is done or not: if the last crawl is older than the given==Es hängt vom Alter des letzten Crawls ab, ob dies getan oder nicht getan wird: wenn der letzte Crawl älter als das angegebene -#Auto-Dom-Filter:==Auto-Dom-Filter: -#This option will automatically create a domain-filter which limits the crawl on domains the crawler==Diese Option erzeugt automatisch einen Domain-Filter der den Crawl auf die Domains beschränkt , -#will find on the given depth. You can use this option i.e. to crawl a page with bookmarks while==die auf der angegebenen Tiefe gefunden werden. Diese Option kann man beispielsweise benutzen, um eine Seite mit Bookmarks zu crawlen -#restricting the crawl on only those domains that appear on the bookmark-page. The adequate depth==und dann den folgenden Crawl automatisch auf die Domains zu beschränken, die in der Bookmarkliste vorkamen. Die einzustellende Tiefe für -#for this example would be 1.==dieses Beispiel wäre 1. -#The default value 0 gives no restrictions.==Der Vorgabewert 0 bedeutet, dass nichts eingeschränkt wird. +#The empty string is a never-match filter which should do well for most cases.==Пустая строка означает фильтр "никогда не совпадать", который хорошо подходит в большинстве случаев. +If you don't know what this means, please leave this field empty.==Если вы не знаете, что это означает, то оставьте это поле пустым. +#Re-crawl known URLs:==Переиндексация повторных ссылок: +#It depends on the age of the last crawl if this is done or not: if the last crawl is older than the given==Это зависит от даты последнего индексирования, если он был или не был выполнен: если последнее индексирование старше, чем указанное +#Auto-Dom-Filter:==Фильтр авто-домена: +#This option will automatically create a domain-filter which limits the crawl on domains the crawler==Эта опция позволяет автоматически создавать фильтр, который ограничивает индексацию доменов. +#will find on the given depth. You can use this option i.e. to crawl a page with bookmarks while==будет искать на заданную глубину. Вы можете использовать эту опцию, например, для индексации страницы с закладками, во время +#restricting the crawl on only those domains that appear on the bookmark-page. The adequate depth==ограничения индексирования только доменов, которые указаны на странице закладок. Приемлемая глубина +#for this example 1.==для этого примера будет 1. +#The default value 0 gives no restrictions.==По-умолчанию задано значение 0 - без ограничений. #Maximum Pages per Domain:==Максимум страниц на домен: #Page-Count==Число страниц -You can limit the maximum number of pages that are fetched and indexed from a single domain with this option.==Вы можете ограничить максимальное число извлечённых и проиндексированных страниц простого домена с помощью этой опции. -You can combine this limitation with the 'Auto-Dom-Filter', so that the limit is applied to all the domains within==Вы можете совместить это ограничение с фильтром 'Авто-дом' так как это ограничение применяется ко всем доменам без +You can limit the maximum number of pages that are fetched and indexed from a single domain with this option.==Вы можете ограничить максимальное число извлечённых и проиндексированных страниц одного домена с помощью этой опции. +You can combine this limitation with the 'Auto-Dom-Filter', so that the limit is applied to all the domains within==Вы можете совместить это ограничение с фильтром 'Авто-домен' так как это ограничение применяется ко всем доменам без the given depth. Domains outside the given depth are then sorted-out anyway.== указания уровня. Домены за пределами указанного уровня сортируются в любом случае. #dynamic URLs==динамические URL-ссылки Document Cache<==Кэш документа< Store to Web Cache==Хранить в вэб-кэше This option is used by default for proxy prefetch, but is not needed for explicit crawling.==Эта опция используется по-умолчанию для прокси, но не используется для явного индексирования. -A questionmark is usually a hint for a dynamic page. URLs pointing to dynamic content should usually not be crawled.==Ein Fragezeichen ist normalerweise ein Hinweis auf eine dynamische Seite. URLs mit dynamischem Inhalt sollten normalerweise nicht gecrawlt werden. -However, there are sometimes web pages with static content that== Wie auch immer, manchmal gibt es Seiten mit festem Inhalt, die -is accessed with URLs containing question marks. If you are unsure, do not check this to avoid crawl loops.==nur von URLs zu erreichen sind, die ein Fragezeichen enthalten. Wenn Sie unsicher sind, aktivieren Sie diese Funktion nicht, um Crawl Schleifen zu vermeiden. -Following frames is NOT done by Gxxg1e, but we do by default to have a richer content. \'nofollow\' in robots metadata can be overridden; this does not affect obeying of the robots.txt which is never ignored.==Gxxg1e folgt Frames NICHT aber wir machen das in den Standardeinstellungen, um reicheren Kontant zu bekommen. 'nofollow' in den robots Metadaten kann ausser Kraft gesetzt werden. Das wirkt sich jedoch nicht auf die Einhaltung der robots.txt aus welche nie ignoriert wird. -Accept URLs with query-part \(\'\?\'\):==Akzeptiere URLs mit Fragezeichen ('?') im Abfrage Part: -Obey html-robots-noindex:==Beachte noindex in der HTML robots Datei: -Policy for usage of Web Cache==Regeln für die Nutzung des Web Caches -The caching policy states when to use the cache during crawling:==Die Caching Regeln legen fest wann der Cache während des Crawlen verwendet wird: -no cache==kein Cache -if fresh==bei frischem Cache Hit -if exist==bei Cache Hit -cache only==nur Cache -never use the cache, all content from fresh internet source;==Den Cache nie verwenden, allen Inhalt frisch von der Online Quelle -use the cache if the cache exists and is fresh using the proxy-fresh rules;==Verwende den Cache, wenn ein Treffer im Cache existiert und dieser aktuell ist. -use the cache if the cache exist. Do no check freshness. Otherwise use online source;==Verwende den Cache, wenn ein Treffer existiert ohne die Aktualität zu prüfen. Andernfalls verwende die Quelle online; -never go online, use all content from cache. If no cache exist, treat content as unavailable==Gehe niemals online, verwende nur den Cache Inhalt. Wenn kein Cache existiert, behandle den Inhalt als nicht verfügbar +A questionmark is usually a hint for a dynamic page. URLs pointing to dynamic content should usually not be crawled.==Вопросительный знак обычно означает динамическую страницу. Ссылки, указывающие на динамический контент. обычно не индексируются. +However, there are sometimes web pages with static content that== Однако, иногда встречаются вэб-страницы со статическим содержимым, которое +is accessed with URLs containing question marks. If you are unsure, do not check this to avoid crawl loops.==доступно по ссылкам, содержащим вопросительный знак. Если вы не уверены, то не включайте эту опцию, чтобы избежать замкнутого индексирования. +Following frames is NOT done by Gxxg1e, but we do by default to have a richer content. \'nofollow\' in robots metadata can be overridden; this does not affect obeying of the robots.txt which is never ignored.== +Accept URLs with query-part \(\'\?\'\):==Принимать ссылки с ('?') в части запроса: +Obey html-robots-noindex:==Учитывать html-robots-noindex: +Policy for usage of Web Cache==Политика использования вэб-кэша +The caching policy states when to use the cache during crawling:==Политика состояний кэширования, когда кэш используется во время индексации: +no cache==без кэша +if fresh==если свежий кэш +if exist==если кэш существует +cache only==только кэш +never use the cache, all content from fresh internet source;==Никогда не использовать кэш, весь контент из нового интернет-источника; +use the cache if the cache exists and is fresh using the proxy-fresh rules;==использовать кэш, если кэш существует и это новое использование правил прокси +use the cache if the cache exist. Do no check freshness. Otherwise use online source;==использовать кэш, если кэш существует. Не проверять на обновления. Иначе использовать интернет-источник; +never go online, use all content from cache. If no cache exist, treat content as unavailable==всегда оффлайн, использовать весь контент из кэша. Если кэш не существует, то считать что контент недоступен. >Crawler Filter<==>Фильтр индексатора< -These are limitations on the crawl stacker. The filters will be applied before a web page is loaded.==Das sind Limitierungen auf den Crawl-Stacker. Die Filter werden angewandt bevor eine Webseite geladen wurde. -Crawling Depth<==Crawling Tiefe< -This defines how often the Crawler will follow links \(of links..\) embedded in websites.==Dies definiert, wie oft der Crawler eingebetteten Links (von Links ...) in Webseiten folgen wird. -0 means that only the page you enter under \"Starting Point\" will be added==0 bedeutet, dass nur die Seite unter "Startpunkt" -to the index. 2-4 is good for normal indexing. Values over 8 are not useful, since a depth-8 crawl will==dem Index zugefügt wird. 2-4 ist gut für normales Indexieren. Werte über 8 sind nicht nützlich, denn eine Suche mit Suchtiefe 8 würde -index approximately 25.600.000.000 pages, maybe this is the whole WWW.==ungefähr 25.600.000.000 Seiten indexieren, vielleicht sogar das ganze WWW. -also all linked non-parsable documents==auch alle verlinkten und nicht-parsbaren Dokumente -Unlimited crawl depth for URLs matching with==Unlimitierte Crawl Tiefe für URLs auf die folgendes zutrifft -Maximum Pages per Domain==Максимум страниц на домен +These are limitations on the crawl stacker. The filters will be applied before a web page is loaded.==Ограничения работы индексатора. Фильтры применяются до загрузки страницы. +Crawling Depth<==Глубина индексирования< +This defines how often the Crawler will follow links \(of links..\) embedded in websites.==Определяет, как часто индексатор будет идти по ссылкам (из ссылок ...) вэб-сайтов. +0 means that only the page you enter under \"Starting Point\" will be added==Ноль означает, что только начальная страница будет добавлена +to the index. 2-4 is good for normal indexing. Values over 8 are not useful, since a depth-8 crawl will==для индексации. 2-4 это нормальное индексирование. Значения более 8 использовать не целесообразно, поскольку такая глубина индексирования предполагает +index approximately 25.600.000.000 pages, maybe this is the whole WWW.==примерно 25.600.000.000 страниц в индексе, возможно это весь WWW. +also all linked non-parsable documents==также все связанные не-проанализированные документы +Unlimited crawl depth for URLs matching with==Неограниченная глубина индексирования для ссылок совпадающих с +Maximum Pages per Domain==Максимальное число страниц домена >Use<==>Использовать< ->Page-Count<==>Число страниц< -misc. Constraints==Verschiedene Einschränkungen ->Load Filter on URLs<==>Lade Filter auf URLs< ->Load Filter on IPs<==>Lade Filter auf IPs< -Must-Match List for Country Codes==Liste aller Ländercodes die zutreffen müssen -Crawls can be restricted to specific countries. This uses the country code that can be computed from==Crawls können auf bestimmte Länder beschränkt werden. Dafür wird der Ländercode verwendet, der -the IP of the server that hosts the page. The filter is not a regular expressions but a list of country codes, separated by comma.==aus der IP des Servers berechnet wird welcher die Seite hostet. Der Filter ist kein regulärer Ausdruck aber eine Liste mit Ländercodes und Komma als Trennzeichen. -no country code restriction==keine Einschränkung anhand von Ländercodes - +>Page-Count<==>Страниц< +misc. Constraints==Разные ограничения +>Load Filter on URLs<==>Фильтр ссылок< +>Load Filter on IPs<==>Фильтр IP-адресов< +Must-Match List for Country Codes==Фильтр стран +Crawls can be restricted to specific countries. This uses the country code that can be computed from==Индексаторы могут быть запрещены для определённых стран. При этом используется код страны, который может быть вычислен по +the IP of the server that hosts the page. The filter is not a regular expressions but a list of country codes, separated by comma.==IP-адресу сервера, на котором размещена страница. Фильтр не использует регулярные выражения. Список кодов стран перечисляется через запятую. +no country code restriction==Oграничение по странам отсутствует +Filter on URLs==Фильтр ссылок Document Filter==Фильтр документов -These are limitations on index feeder. The filters will be applied after a web page was loaded.==Это ограничения на получение индекса. Фильтры будут применяться после загрузки вэб-страницы. +These are limitations on index feeder. The filters will be applied after a web page was loaded.==Ограничения на получение индекса. Фильтры применяются после загрузки вэб-страницы. >Filter on URLs<==Фильтр ссылок< -The filter is a==Der Filter ist ein ->regular expression<==>Regülärer Ausdruck< -that must not match with the URLs to allow that the content of the url is indexed.==der auf die URLs zutreffen muss, damit der Inhalt der URL indexiert werden darf. -> must-match<==> muss zutreffen< -> must-not-match<==> muss nicht zutreffen< +The filter is a==Фильтр это +>regular expression<==>регулярное выражение< +that must not match with the URLs to allow that the content of the url is indexed.==которое не должно совпадать с ссылками, если контент по этой ссылке проиндексирован. +> must-match<==> должно совпадать< +> must-not-match<==> не должно совпадать< \(must not be empty\)==(не должен быть пустым) - +Filter on Content of Document
\(all visible text, including camel-case-tokenized url and title\)==Фильтр содержимого документа
(весь видимый текст, включая слитно написанные ссылки и заголовок) Clean-Up before Crawl Start==Очистка перед началом индексирования ->No Deletion<==>Нет удаления< +>No Deletion<==>Без удаления< >Re-load<==>Перезагрузить< For each host in the start url list, delete all documents \(in the given subpath\) from that host.==Для каждого хоста в начальном списке ссылок, удалять все документы (даже в подпапках) из хоста. +Delete sub-path==Удалить часть ссылки +Delete only old==Удалить только устаревшие Do not delete any document before the crawl is started.==Не удалять любые документы перед началом индексирования. -Treat documents that are loaded==Behandle Dokumente die -> ago as stale and delete them before the crawl is started.==> zuvor geladen wurden als abgelaufen und lösche sie bevor der Crawl gestartet wird. -After a crawl was done in the past, document may become stale and eventually they are also deleted on the target host.==Nachdem ein Crawl abgeschlossen wurde, werden Dokumenten ebenfalls überfällig und eventuell werden diese auch auf dem Ziel-Host gelöscht. -To remove old files from the search index it is not sufficient to just consider them for re-load but it may be necessary==Um diese alten Dateien aus dem Suchindex zu entfernen ist es nicht ausreichend sie für einen erneutes Laden vorzusehen - aber es kann notwending sein -to delete them because they simply do not exist any more. Use this in combination with re-crawl while this time should be longer.==diese ebenfalls zu Löschen weil sie ganz einfach nicht mehr existieren. Verwendung in Kombination mit Re-Crawl während diese Zeit länger sein sollte. +Treat documents that are loaded==Считать загруженные документы +> ago as stale and delete them before the crawl is started.==> устаревшими, и удалять из перед началом индексирования. +After a crawl was done in the past, document may become stale and eventually they are also deleted on the target host.==Если индексирование было выполнено раньше, то документ может потерять актуальность и даже быть удалён из индексируемого сайта. +To remove old files from the search index it is not sufficient to just consider them for re-load but it may be necessary==Переиндексации недостаточно после удаления старых файлов из поискового индекса, но может быть необходимо, +to delete them because they simply do not exist any more. Use this in combination with re-crawl while this time should be longer.==так как старые файлы уже не существуют. Использование этой функции вместе с переиндексацией может занять много времени. -Double-Check Rules==Dubletten Check Regeln -No Doubles==Keine Dubletten -A web crawl performs a double-check on all links found in the internet against the internal database. If the same url is found again,==Ein Web Crawl macht einen Dubletten Check auf alle im Internet gefundenen Links gegen die interne Datenbank. Wenn dieselbe URL wieder gefunden wird, -then the url is treated as double when you check the \'no doubles\' option. A url may be loaded again when it has reached a specific age,==dann wird die URL als Dublette behandelt wenn Sie die 'Keine Dubletten' Option ausgewählt haben. Eine URL wird wieder geladen, wenn sie ein bestimmtes Alter erreicht hat. -to use that check the \'re-load\' option.==Um diese Option zu verwenden bitte die Option "Neu Laden" markieren. ->Re-load<==>Neu Laden< -Treat documents that are loaded==Behandle Dokumente die -> ago as stale and load them again. If they are younger, they are ignored.==> zuvor geladen wurden als abgelaufen und lade sie erneut. Wenn sie jünger sind werden sie ignoriert. -Never load any page that is already known. Only the start-url may be loaded again.==Lade nie eine Seite die schon bekannt ist. Nur die Start-URL kann erneut geladen werden. +Double-Check Rules==Правила повторной проверки +No Doubles==Нет повторов +A web crawl performs a double-check on all links found in the internet against the internal database. If the same url is found again,==Вэб-индексатор выполняет повторную проверку всех ссылок, найденных в интернете с внутренней базой данных. Если ссылки найдены опять, +then the url is treated as double when you check the \'no doubles\' option. A url may be loaded again when it has reached a specific age,==то они считаются повторными, если вы включите опцию "Нет повторов". Ссылка может быть загружена опять, если она достигла определённого возраста. +to use that check the \'re-load\' option.==Для этого включите опцию "Повторная загрузка". +>Re-load<==>Повторная загрузка< +Treat documents that are loaded==Считать загруженные документы +> ago as stale and load them again. If they are younger, they are ignored.==> устаревшими и загрузить их снова. Если они свежее, то они игнорируются. +Never load any page that is already known. Only the start-url may be loaded again.==Никогда не загружать любую страницу, если она уже известна. Только начальная ссылка может быть загружена опять. Robot Behaviour==Поведение робота Use Special User Agent and robot identification==Использовать специальный User Agent и идентификацию робота You are running YaCy in non-p2p mode and because YaCy can be used as replacement for commercial search appliances==Вы запустили YaCy в не-p2p режиме, поэтому YaCy может использован в качестве замены коммерческим поисковым системам \(like the GSA\) the user must be able to crawl all web pages that are granted to such commercial plattforms.==(например, GSA). Пользователь должен иметь возможность индексировать все вэб-страницы, представленные коммерческими платформами. -Not having this option would be a strong handicap for professional usage of this software. Therefore you are able to select==Diese Option nicht zu haben könnte ein starkes Handicap für die professionelle Nutzung dieser Software darstellen. Darum können Sie hier -alternative user agents here which have different crawl timings and also identify itself with another user agent and obey the corresponding robots rule.==alternative User-Agents auswählen, die verschiedene Craw Timings haben und sich selbst auch mit einem anderen User-Agent ausweisen und die jeweiligen robots Regeln anwenden. - +Not having this option would be a strong handicap for professional usage of this software. Therefore you are able to select==Отсутствие этой опции может сильно припятствовать профессиональному использованию этой программы. Поэтому вы можете выбрать +alternative user agents here which have different crawl timings and also identify itself with another user agent and obey the corresponding robots rule.==альтернативные User-Agent'ты здесь. Они будут иметь различные задержки индексирования и также идентифицировать себя с другим User-Agent'ом и соблюдать соответствующие правила роботов. +Index Administration==Управление индексом Do Local Indexing==Выполнить локальное индексирование index text==Индекс текста -index media==Индекс медиа +index media==Индекс медиа-файлов This enables indexing of the webpages the crawler will download. This should be switched on by default, unless you want to crawl only to fill the==Разрешает индексирование вэб-страниц, пока индексатор производит загрузку. По-умолчанию включено. Document Cache without indexing.==Кэш документов без индексирования. Do Remote Indexing==Выполнить удалённое индексирование @@ -1306,20 +1374,20 @@ Describe your intention to start this global crawl \(optional\)==Описани This message will appear in the 'Other Peer Crawl Start' table of other peers.==Это сообщение будет отображаться в таблице других узлов в поле 'Другой узел начал индексирование'. If checked, the crawler will contact other peers and use them as remote indexers for your crawl.==Если отмечено, то индексатор будет связываться с другими узлами и использовать их для удалённого индексирования. If you need your crawling results locally, you should switch this off.==Отключите, если желаете получать результаты индексирования локально. -Only senior and principal peers can initiate or receive remote crawls.==Nur Senior und Principal Peers können einen remote Crawl initiieren oder erhalten. -A YaCyNews message will be created to inform all peers about a global crawl==Eine Nachricht wird im YaCy News Bereich angezeigt, um alle Peers von diesem globalen Crawl zu informieren -so they can omit starting a crawl with the same start point.==damit sie es vermeiden können, einen Crawl vom selben Startpunkt zu starten. -#Exclude static Stop-Words==Statische Stop-Words ausschließen -#This can be useful to circumvent that extremely common words are added to the database, i.e. \"the\", \"he\", \"she\", \"it\"... To exclude all words given in the file yacy.stopwords from indexing,==Dies ist sinnvoll, um zu verhindern, dass extrem häufig vorkommende Wörter wie z.B. "der", "die", "das", "und", "er", "sie" etc in die Datenbank aufgenommen werden. Um alle Wörter von der Indexierung auszuschließen, die in der Datei yacy.stopwords enthalten sind, -check this box.==aktivieren Sie diese Box. +Only senior and principal peers can initiate or receive remote crawls.==Только узлы в режиме "Senior" и "Principal" могут инициировать или принимать удалённую индексацию. +A YaCyNews message will be created to inform all peers about a global crawl==Сообщение YaCy может быть создано для информирования всех узлов о глобальном индексировании +so they can omit starting a crawl with the same start point.==поэтому они могут пропустить запуск индексирования с одной и той же начальной точки. +#Exclude static Stop-Words==Исключить статические стоп-слова +#This can be useful to circumvent that extremely common words are added to the database, i.e. \"the\", \"he\", \"she\", \"it\"... To exclude all words given in the file yacy.stopwords from indexing,==Это может быть полезно, чтобы не учитывать общие слова, добавленные в базу данных. Например, "он", "она", "это", "и", "или", "они" и так далее. Слова, указанные в файле yacy.stopwords исключаются из индексирования, +check this box.==проверьте этот файл. Add Crawl result to collection\(s\)==Добавить результат индексирования в хранилище -A crawl result can be tagged with names which are candidates for a collection request.==Ein Crawl Ergebnis kann mit Namen getagged werden die Kandidaten für eine Kollektion Anfrage sind. -These tags can be selected with the==Эти тэги могут быть выбраны с -GSA interface==Интерфейс GSA -using the \'site\' operator.==durch Verwendung des 'site' Befehls. -To use this option, the 'collection_sxt'-field must be switched on in the==Um diese Option zu verwenden, muss das 'collection_sxt'-Feld eingeschalten werden auf der Seite für das -#Solr Schema==Схема Solr +A crawl result can be tagged with names which are candidates for a collection request.==Результат индексирования может быть помечен с именами в кандидаты для запроса в хранилище. +These tags can be selected with the==Эти тэги могут быть указаны +GSA interface==интерфейсе GSA +using the \'site\' operator.==с помощью оператора 'site'. +To use this option, the 'collection_sxt'-field must be switched on in the==При использовании этой опции, поле 'collection_sxt' должено быть включено. +Solr Schema==Схема Solr "Start New Crawl Job"=="Начать новое индексирование" #----------------------------- @@ -1355,7 +1423,7 @@ Scan Range==Диапазон сканирования Scan sub-range with given host==Сканирование поддиапазона заданного хоста Full Intranet Scan:==Полное сканирование интранета: Do not use intranet scan results, you are not in an intranet environment!==Вы не можете использовать результаты сканирования интранета, так как вы не находитесь в интрасети! -All known hosts in the search index \(/31 subnet recommended!\)==Все известные хосты в индексе поиска (/31 подсеть рекомендованна!) +All known hosts in the search index \(/31 subnet recommended!\)==Все известные хосты в индексе поиска (/31 подсеть рекомендована!) only the given host\(s\)==только заданного хоста(-ов) addresses\)==адреса) Subnet<==Подсеть< @@ -1400,9 +1468,9 @@ Site Crawler:==Индексирование сайта: Download all web pages from a given domain or base URL.==Загрузить все веб-страницы из указанного домена или основного URL. >Site Crawl Start<==>Запуск индексирования сайта< >Site<==>Сайт< -Start URL \(must start with==Начальная URL-ссылка (должна начинаться с +Start URL \(must start with==Начальная ссылка (должна начинаться с Link-List of URL==Список URL-адресов -Sitemap URL==Ссылка карты сайта +Sitemap URL==Ссылка на карту сайта #>Scheduler<==>Планировщик< #run this crawl once==запустить индексирование один раз #scheduled, look every==по расписанию, каждые @@ -1418,7 +1486,7 @@ not more than <==не больше чем < >documents<==>документов< #>Dynamic URLs<==>Динамические URL-адреса< #allow <==разрешить < -#urls with a \'\?\' in the path==URL адреса '?' в адресе +#urls with a \'\?\' in the path==URL-адреса с '?' в адресе Collection<==Хранилище< >Start<==>Запуск< "Start New Crawl"=="Запустить новое индексирование" @@ -1438,7 +1506,7 @@ The scheduler on crawls can be changed or removed using the Tutorial==>Инструкции You are using the administration interface of your own search engine==YaCy можно использовать для организации собственного поиска. Ниже видео-демонстрация работы YaCy (на немецком языке). You can create your own search index with YaCy==С YaCy вы можете организовать свой собственный поиск To learn how to do that, watch one of the demonstration videos below==Чтобы узнать как это сделать, вы можете просмотреть видео демонстрации ниже (на немецком языке) @@ -1460,7 +1528,9 @@ Enter a host or an URL for a file list or view a list of==Введите хос Host/URL:==Хост/URL-адрес: "Browse Host"=="Просмотр хостов" "Delete Subpath"=="Удалить путь" -Confirm Deletion==Подтвердить удаление +Browser for==Просмотр +"Re-Load 404"=="" +Confirm Deletion==Подтвердите удаление >Host List<==>Список хостов< Count Colors:==Обозначение цветов: Documents without Errors==Проиндексированные документы без ошибок @@ -1480,12 +1550,12 @@ unloaded documents detected in subpath: \#\[subpathdetectedsize\]\#==незаг >excluded<==>исключённые< >failed<==>ошибочные< Show Metadata==Показать метаданные -link, detected from context==ссылки, обнаруженные из контекста +link, detected from context==ссылки, выявленные из контекста load & index==Загрузить & индекс >indexed<==>проиндексировано< >loading<==>загружается< -Outbound Links, outgoing from \#\[host\]\# - Host List==Исходящие ссылки, исходящие из #[host]# - список хостов -Inbound Links, incoming to \#\[host\]\# - Host List==Входящие ссылки, входящие в #[host]# - список хостов +Outbound Links, outgoing from \#\[host\]\# - Host List==Внешние ссылки, исходящие от #[host]# - список хостов +Inbound Links, incoming to \#\[host\]\# - Host List==Внутренние ссылки, входящие в #[host]# - список хостов #browse \#\[host\]\#==просмотр #[host]# #\#\[count\]\# URLs==#[count]# ссылок #----------------------------- @@ -1535,9 +1605,10 @@ the peer-to-peer network==P2P-сеть only the local index==Только локальный индекс Query Operators==Параметры поиска restrictions==Ограничения -only urls with the <phrase> in the url==только URL c <phrase> в URL -only urls with extension==только URL с расширением -only urls from host==только URL с хоста +only urls with the <phrase> in the url==только ссылка c <phrase> в ссылке +only urls with the <phrase> within outbound links of the document==только ссылки с <phrase> без внешних ссылок на документ +only urls with extension==только ссылка с расширением +only urls from host==только ссылка из хоста only pages with as-author-anotated==только страницы с аннотацией only pages from top-level-domains==только страницы с TLD only resources from http or https servers==только ресурсы с HTTP или HTTPS-серверов @@ -1545,9 +1616,9 @@ only resources from ftp servers==только ресурсы с FTP сервер they are rare==они редки crawl them yourself==проиндексируйте их самостоятельно only resources from smb servers==только ресурсы с SMB-серверов -Intranet Indexing must be selected==Индексация интранет должна быть выбрана -only files from a local file system==только файлы с локальной файловой системы -ranking modifier==Сортировка +Intranet Indexing must be selected==индексация интранет должна быть выбрана +only files from a local file system==только файлы локальной файловой системы +>ranking modifier<==>Сортировка< sort by date==сортировка по дате latest first==сначала последние multiple words shall appear near==слова должны быть рядом @@ -1564,13 +1635,16 @@ next result page==следующая страница результатов page-down==PgDn previous result page==предыдущая страница результатов automatic result retrieval==Вывод результатов -browser integration==интеграция в браузер +browser integration==Интеграция в браузер after searching, click-open on the default search engine in the upper right search field of your browser and select 'Add "YaCy Search.."'==после поиска, кликните на поиске по умолчанию в правом верхнем углу браузера и выберите 'добавить Поиск YaCy' -search as rss feed==представить как RSS-ленту -#click on the red icon in the upper right after a search. this works good in combination with the '/date' ranking modifier. See an==после поиска кликните на красной иконке в правом верхнему углу. Также хорошо работает с модификатором ранжирования /date. Смотрите +search as rss feed==Представить как RSS-ленту +click on the red icon in the upper right after a search.==после поиска нажмите на красную иконку в правом верхнему углу. +this works good in combination with the '/date' ranking modifier.==Это хорошо работает вместе с модификатором ранжирования /date. +See an==Смотрите +example.==. >example==>пример -json search results==результаты в формате JSON -for ajax developers: get the search rss feed and replace the '.rss' extension in the search result url with '.json'==для AJAX-разработчиков: получите rss-ленту и замените расширение .rss на .json +json search results==Результаты поиска в формате JSON +for ajax developers: get the search rss feed and replace the '.rss' extension in the search result url with '.json'==для AJAX-разработчиков: замените расширение rss-ленты с .rss на .json #----------------------------- #File: IndexCleaner_p.html @@ -1692,9 +1766,16 @@ Blacklist Extension==Расширения черного списка #File: IndexControlURLs_p.html #--------------------------- +These document details can be retrieved as XHTML+RDFa==Детали документа могут быть получены в виде XHTML+RDFa. +document containg RDF annotations in Dublin Core vocabulary.==Документ содержит RDF-аннотации в словаре дублинского ядра. +The XHTML+RDFa data format is both a XML content format and a HTML display format and is considered as an important Semantic Web content format.==Формат данных XHTML+RDFa в виде XML-содержания и HTML-отображения, рассматривается в качестве важного формата семантической сети. +The same content can also be retrieved as pure XML metadata with DC tag name vocabulary.==Некоторое содержимое может быть также получено в виде XML-метаданных с словарём тэгов имён DC. +Click the API icon to see an example call to the search rss API.==Нажмите на иконку для просмотра API примера поиска по rss-ленте. +To see a list of all APIs, please visit the API wiki page.==Для просмотра списка всех API, пожалуйста, посетите страницу API wiki. +URL Database Administration==Управление базой данных ссылок #URL References Administration==Управление URL-ссылками -The local index currently contains \#\[ucount\]\# URL references==Локальный индекс содержит на данный момент #[ucount]# URL-ссылок -URL Retrieval==Поиск URL-ссылок +The local index currently contains \#\[ucount\]\# URL references==Локальный индекс содержит на данный момент #[ucount]# ссылок +URL Retrieval==Поиск ссылок #Select Segment:==Выбрать сегмент: Retrieve by URL:<==Поиск ссылки:< "Show Details for URL"=="Показать сведения" @@ -1718,38 +1799,39 @@ domains from all URLs.==наиболее часто встречающихся "Generate Statistics"=="Показать" Statistics about the top-\#\[domains\]\# domains in the database:==Статистика #[domains]# наиболее распространённых доменов в базе данных: "delete all"=="удалить всё" -Domain==Домен +>Domain<==>Домен< #URLs==Ссылки Dump and Restore of Solr Index==Создание дампа и восстановление индекса базы Solr "Create Dump"=="Создать дамп" Dump File==Файл дампа "Restore Dump"=="Восстановить дамп" Optimize Solr==Оптимизация базы Solr -merge to max. <==Объединить максимум < +merge to max. <==Объединить максимум в< > segments==>сегментов "Optimize Solr"=="Оптимизировать" Reboot Solr Core==Перезапустить ядро Solr "Shut Down and Re-Start Solr"=="Перезапустить" #Sequential List of URL-Hashes==Sequentielle Liste der URL-Hashes -Loaded URL Export==Экспорт URL-ссылок +Loaded URL Export==Экспорт ссылок Export File==Экспортировать файл URL Filter==Фильтр ссылок +query==Запрос Export Format==Формат экспорта -Only Domain \(superfast\)==Только домен (sehr schnell) +#Only Domain \(superfast\)==Только домен (очень быстро) Only Domain:==Только домен: Full URL List:==Полный список ссылок: Plain Text List \(domains only\)==Простой текстовый список (только домены) -HTML \(domains as URLs, no title\)==HTML (Domains als URLs, kein Titel) -#Full URL List \(high IO\)==Vollständige URL Liste (hoher IO) +HTML \(domains as URLs, no title\)==HTML (домены в виде ссылок, без заголовков) +#Full URL List \(high IO\)==Полный список ссылок (высокий IO) Plain Text List \(URLs only\)==Простой текстовый список (только URL-адреса) -HTML \(URLs with title\)==HTML (URLs mit Titel) +HTML \(URLs with title\)==HTML (ссылки с заголовками) #XML (RSS)==XML (RSS) "Export URLs"=="Экспортировать" -Export to file \#\[exportfile\]\# is running .. \#\[urlcount\]\# URLs so far==Export nach Datei #[exportfile]# läuft .. #[urlcount]# URLs bisher +Export to file \#\[exportfile\]\# is running .. \#\[urlcount\]\# URLs so far==Экспорт в файл #[exportfile]# начался .. #[urlcount]# ссылок на данный момент Finished export of \#\[urlcount\]\# URLs to file==Завершен экспорт #[urlcount]# URL-адресов в файл -Export to file \#\[exportfile\]\# failed:==Экспорт в файл #[exportfile]# произошел с ошибкой: +Export to file \#\[exportfile\]\# failed:==Экспорт в файл #[exportfile]# произошёл с ошибкой: No entry found for URL-hash==Не найдено для хэш URL-адреса -#URL String==URL Adresse +#URL String==URL-адрес #Hash==Хэш #Description==Описание #Modified-Date==Дата изменения @@ -1761,8 +1843,8 @@ No entry found for URL-hash==Не найдено для хэш URL-адреса #Words==Слова "Show Content"=="Показать контент" "Delete URL"=="Удалить URL-адрес" -this may produce unresolved references at other word indexes but they do not harm==dies mag ungelöste Referenzen an anderen Wort Indizes erzeugen, aber es richtet keinen Schaden an -"Delete URL and remove all references from words"=="URL löschen und alle Referenzen zu Wörtern entfernen" +this may produce unresolved references at other word indexes but they do not harm==это может привести к неразрешённым ссылкам на другие слова индексов, но это не нанесёт вреда +"Delete URL and remove all references from words"=="Удалить ссылки, включая ссылки из слов" delete the reference to this url at every other word where the reference exists \(very extensive, but prevents unresolved references\)==löscht die Referenz zu dieser URL und jedem anderen Wort, wo die Referenz existiert (sehr umfassend, aber bewahrt vor ungelösten Referenzen) #----------------------------- @@ -1773,12 +1855,14 @@ The loader set is empty==Очередь пуста. There are \#\[num\]\# entries in the loader set:==Число записей в загрузке #[num]# : Initiator==Инициатор Depth==Глубина +Status==Состояние #URL==URL-адрес +\'Local\' Crawl Queue==Локальная очередь индексирования #----------------------------- #File: IndexCreateParserErrors_p.html #--------------------------- -Parser Errors==Ошибки парсера +Parser Errors==Отклонённые ссылки Rejected URLs==Отклонённые ссылки Rejected URL List:== There are \#\[num\]\# entries in the rejected-urls list.==Число записей в списке #[num]#. @@ -1795,13 +1879,15 @@ Fail-Reason==Причина ошибки #File: IndexCreateQueues_p.html #----------------------------- -This crawler queue is empty==Очередь этого индексатора пуста +This crawler queue is empty==Очередь этого индекcатора пуста +\'Local\' Crawl Queue==Локальная очередь индексирования +Click on this API button to see an XML with information about the crawler latency and other statistics.==Нажмите на эту кнопку для просмотра в виде XML информации о задержке индексатора и другой статистики. #----------------------------- #File: ContentIntegrationPHPBB3_p.html #--------------------------- -Content Integration: Retrieval from phpBB3 Databases==Integration von Inhalt: Import aus phpBB3 Datenbanken +Content Integration: Retrieval from phpBB3 Databases==Интеграция контента: Поиск из баз данных phpBB3 It is possible to extract texts directly from mySQL and postgreSQL databases.==Es ist möglich Texte direkt aus MySQL und PostgreSQL Datenbanken zu extrahieren. Each extraction is specific to the data that is hosted in the database.==Jeder Vorgang extrahiert genau die Datensätze die in der Datenbank gehostet werden. This interface gives you access to the phpBB3 forums software content.==Dieses Interface erlaubt den Zugriff auf die Inhalte der phpBB3 Forum Software. @@ -2135,66 +2221,66 @@ reindex documents containing these fields:==Переиндексировать #File: Load_MediawikiWiki.html #--------------------------- -YaCy \'\#\[clientname\]\#\': Configuration of a Wiki Search==YaCy '#[clientname]#': Konfiguration einer Wiki Suche -#Integration in MediaWiki==Integration in MediaWiki -It is possible to insert wiki pages into the YaCy index using a web crawl on that pages.==Es ist möglich Wiki Seiten in den YaCy Index aufzunehmen, indem man diese Seiten crawlen läßt. -This guide helps you to crawl your wiki and to insert a search window in your wiki pages.==Diese Anleitung hilft Ihnen, Ihr Wiki zu crawlen und ein Suchfeld in die Wiki Seiten einzubauen. -Retrieval of Wiki Pages==Abrufen der Wiki Seiten -The following form is a simplified crawl start that uses the proper values for a wiki crawl.==Das folgende Eingabeformular ist eine vereinfachte Crawl Startseite die passende Werte für eine Wiki Suche voreingestellt hat. -Just insert the front page URL of your wiki.==Fügen Sie einfach die Start URL Ihres Wikis ein. -After you started the crawl you may want to get back==Nachdem Sie den Crawl gestartet haben sollten Sie nochmals zurück -to this page to read the integration hints below.==auf diese Seite gehen, um die Integrationshinweise weiter unten zu lesen. -URL of the wiki main page==URL der Wiki Hauptseite -This is a crawl start point==Das ist der Ausgangspunkt des Crawls -"Get content of Wiki: crawl wiki pages"=="Hole den Inhalt des Wiki: Crawle die Wiki Seiten" -Inserting a Search Window to MediaWiki==Einfügen eines Suchfeldes in ein MediaWiki -To integrate a search window into a MediaWiki, you must insert some code into the wiki template.==Um ein Suchfeld in das MediWiki einzufügen, müssen Sie einigen Code in Ihr Wiki Template einfügen. -There are several templates that can be used for MediaWiki, but in this guide we consider that==Es gibt einige Templates die für ein MediaWiki verwendet werden können. Aber in dieser Anleitung setzen wir voraus, dass -you are using the default template, \'MonoBook.php\':==Sie das Standard Template einsetzen, 'MonoBook.php': -open skins/MonoBook.php==Öffnen Sie skins/MonoBook.php -find the line where the default search window is displayed, there are the following statements:==Finden Sie die Zeile in der die Standard Suchmaschine angezeigt wird, erkennbar an folgenden Anweisungen: -Remove that code or set it in comments using \'<!--\' and \'-->\'==Entfernen Sie diesen Code oder setzen sie ihn zwischen Kommentar Klammern mit '<!--' und '-->' -Insert the following code:==Fügen Sie folgenden Code ein: -Search with YaCy in this Wiki:==Mit YaCy in diesem Wiki suchen: -value=\"Search\"==value="Suche" -Check all appearances of static IPs given in the code snippet and replace it with your own IP, or your host name==Überprüfen Sie alle in diesem Codeschnipsel vorkommenden statischen IP Adressen und ersetzen Sie diese mit Ihrer eigenen IP oder dem eigenen Hostnamen. -You may want to change the default text elements in the code snippet==Sie können auch die Standard Textelemente in dem Code Ausschnitt gegen eigene Texte austauschen. -To see all options for the search widget, look at the more generic description of search widgets at==Um alle Optionen für das Suchfeld zu sehen, schauen Sie sich die generische Beschreibung des Such Widgets auf -the configuration for live search.==der Seite Integration eines Suchfelds für Live Suche an. +YaCy \'\#\[clientname\]\#\': Configuration of a Wiki Search==YaCy '#[clientname]#': Конфигурация поиска в Wiki +Integration in MediaWiki==Интеграция в MediaWiki +It is possible to insert wiki pages into the YaCy index using a web crawl on that pages.==Возможно добавить wiki-страницы в индекс YaCy, используя индексирование этих вэб-страниц. +This guide helps you to crawl your wiki and to insert a search window in your wiki pages.==Это руководство поможет вам проиндексировать вашу wiki и добавить окно поиска на вашу wiki-страницу. +Retrieval of Wiki Pages==Извлечение wiki-страниц +The following form is a simplified crawl start that uses the proper values for a wiki crawl.==Следующая форма представляет собой упрощённое начало индексирования, с использованием правильных значений для индексации Wiki. +Just insert the front page URL of your wiki.==Добавьте ссылку на главную страницу вашей wiki. +After you started the crawl you may want to get back==После начала индексирования, возможно вы захотите вернуться назад +to this page to read the integration hints below.==на эту страницу, для чтения подсказок по интеграции, указанных ниже. +URL of the wiki main page==Ссылка на главную wiki-страницу +This is a crawl start point==(начальная точка индексирования) +"Get content of Wiki: crawl wiki pages"=="Индексировать Wiki-страницы" +Inserting a Search Window to MediaWiki==Добавьте окно поиска в MediaWiki +To integrate a search window into a MediaWiki, you must insert some code into the wiki template.==Для интеграции окна поиска в MediaWiki, вы должны добавить соответствующий код в wiki-шаблон. +There are several templates that can be used for MediaWiki, but in this guide we consider that==Здесь представлены некоторые шаблоны, которые вы можете использовать для MediaWiki, но это руководство мы рассмотрим +you are using the default template, \'MonoBook.php\':==на примере использования шаблона по-умолчанию, 'MonoBook.php': +open skins/MonoBook.php==откройте skins/MonoBook.php +find the line where the default search window is displayed, there are the following statements:==найдите строку, где показано окно поиска по-умолчанию. Будет указан следующий текст: +Remove that code or set it in comments using \'<!--\' and \'-->\'==Удалите этот код или закомментируйте его, используя '<!--' и '-->' +Insert the following code:==Добавьте следующий код: +Search with YaCy in this Wiki:==Поиск с YaCy в этой Wiki: +value=\"Search\"==value="Поиск" +Check all appearances of static IPs given in the code snippet and replace it with your own IP, or your host name==Проверьте все статические IP-адреса в фрагменте кода и замените их своими IP-адресами или именем вашего хоста. +You may want to change the default text elements in the code snippet==Вы можете изменить стандартный текст в фрагменте кода +To see all options for the search widget, look at the more generic description of search widgets at==Посмотреть все опции и описания виджета поиска вы можете на странице +the configuration for live search.==интеграции поиска. #----------------------------- #File: Load_PHPBB3.html #--------------------------- -Configuration of a phpBB3 Search==Konfiguration einer phpBB3 Suche -#Integration in phpBB3==Integration in phpBB3 -It is possible to insert forum pages into the YaCy index using a database import of forum postings.==Es ist möglich die Forumsseiten mit YaCy zu indexieren, indem die Datenbank mit den Forumseinträgen importiert wird. -This guide helps you to insert a search window in your phpBB3 pages.==Diese Anleitung hilft Ihnen ein YaCy Suchfeld in Ihre phpBB3 Forenseiten einzubinden. -Retrieval of phpBB3 Forum Pages using a database export==Extraktion der phpBB3 Forenseiten durch Datenbank Export -Forum posting contain rich information about the topic, the time, the subject and the author.==Forenbeiträge enthalten reichaltige Informationen über das Thema, die Zeit, den Betreff und den Autor. -This information is in an bad annotated form in web pages delivered by the forum software.==Diese Information wird in einem schlecht kommentierten Format in Form von Webseiten ausgeliefert, die von der Forumssoftware erzeugt werden. -It is much better to retrieve the forum postings directly from the database.==Es ist viel besser die Forenbeiträge direkt aus der Datenbank zu extrahieren. -This will cause that YaCy is able to offer nice navigation features after searches.==Durch den Direktimport kann YaCy nach einer Suche auch hilfreiche Features zur Navigation anbieten. -YaCy has a phpBB3 extraction feature, please go to the phpBB3 content integration servlet for direct database imports.==YaCy kann bereits Daten aus einer phpBB3 Installation extrahieren. Auf der Seite Import aus phpBB3 Datenbanken finden Sie ein Servlet für den direkten Datenbank Import. -Retrieval of phpBB3 Forum Pages using a web crawl==Extraktion der phpBB3 Forenseiten durch Web Crawling -The following form is a simplified crawl start that uses the proper values for a phpbb3 forum crawl.==Das folgende Eingabeformular ist eine vereinfachte Crawl Startseite, die passende Werte für eine phpBB3 Forensuche voreingestellt hat. -Just insert the front page URL of your forum. After you started the crawl you may want to get back==Fügen Sie einfach die Startseite Ihres Forums ein. Nachdem Sie den Crawl gestartet haben sollten Sie zurück -to this page to read the integration hints below.==auf die Seite kommen, um die Integrationshinweise unten zu lesen. -URL of the phpBB3 forum main page==URL der Hauptseite des phpBB3 Forums -This is a crawl start point==Das ist der Ausgangspunkt für den Crawl -"Get content of phpBB3: crawl forum pages"=="Hole den phpBB3 Foreninhalt: Crawlen der Forenseiten" -Inserting a Search Window to phpBB3==Einfügen eines Suchfeldes in das phpBB3 Forum -To integrate a search window into phpBB3, you must insert some code into a forum template.==Um ein Suchfeld in Ihr phpBB3 Forum einzubauen, müssen Sie folgende Zeilen Code in das Forums Template einbauen. -There are several templates that can be used for phpBB3, but in this guide we consider that==Da es viele verschiedene Templates für phpBB3 Foren gibt, gehen wir in dieser Anleitung davon aus, dass -you are using the default template, \'prosilver\'==Sie das Standard Template 'prosilver' verwenden. -open styles/prosilver/template/overall_header.html==Öffnen Sie die Datei styles/prosilver/template/overall_header.html -find the line where the default search window is displayed, thats right behind the
\<div id=\"search-box\"\>
statement==Finden Sie die Zeile in der das Standard Suchfeld angezeigt wird, das sich gleich hinter der Anweisung
<div id="search-box">
befindet -Insert the following code right behind the div tag==Fügen Sie folgenden Code gleich nach dem div Tag ein -YaCy Forum Search==YaCy Foren Suche -;YaCy Search==;YaCy Suche -Check all appearances of static IPs given in the code snippet and replace it with your own IP, or your host name==Überprüfen Sie alle in diesem Codeschnipsel vorkommenden statischen IP Adressen und ersetzen Sie diese mit Ihrer eigenen IP oder dem eigenen Hostnamen. -You may want to change the default text elements in the code snippet==Sie können auch die Standard Textelemente in dem Code Ausschnitt gegen eigene Texte austauschen. -To see all options for the search widget, look at the more generic description of search widgets at==Um alle Optionen für das Suchfeld zu sehen, schauen Sie sich die generische Beschreibung des Such Widgets auf -the configuration for live search.==der Seite Integration eines Suchfelds für Live Suche an. +Configuration of a phpBB3 Search==Конфигурация поиска в phpBB3 +Integration in phpBB3==Интеграция в phpBB3 +It is possible to insert forum pages into the YaCy index using a database import of forum postings.==Возможно добавить страницы форума в индекс YaCy, используя импорт базы данных постов форума. +This guide helps you to insert a search window in your phpBB3 pages.==Это руководство поможет вам добавить окно поиска на ваши phpBB3-страницы. +Retrieval of phpBB3 Forum Pages using a database export==Извлечение phpBB3-страниц форума, используя экспорт базы данных. +Forum posting contain rich information about the topic, the time, the subject and the author.==Посты форума содержат много информации о топиках, времени, теме и авторе. +This information is in an bad annotated form in web pages delivered by the forum software.==Эта информация находится в плохо аннотированной форме на вэб-страницах форума. +It is much better to retrieve the forum postings directly from the database.==Поэтому намного удобнее извлечь посты форума прямо из базы данных. +This will cause that YaCy is able to offer nice navigation features after searches.==После поиска это добавит хорошую навигацию. +YaCy has a phpBB3 extraction feature, please go to the phpBB3 content integration servlet for direct database imports.==Подробную информацию об извлечении phpBB3 смотрите на странице интеграция содержимого phpBB3. +Retrieval of phpBB3 Forum Pages using a web crawl==Для извлечения phpBB3-страниц используется индексация. +The following form is a simplified crawl start that uses the proper values for a phpbb3 forum crawl.==Следующая форма представляет собой упрощённое начало индексирования, с использованием правильных значений для индексации phpbb3-форума. +Just insert the front page URL of your forum. After you started the crawl you may want to get back==Добавьте ссылку на главную страницу вашего форума. После начала индексирования, возможно вы захотите вернуться назад +to this page to read the integration hints below.==на эту страницу, для чтения подсказок по интеграции, указанных ниже. +URL of the phpBB3 forum main page==Ссылка на главную страницу форума +This is a crawl start point==(начальная точка индексирования) +"Get content of phpBB3: crawl forum pages"=="Индексировать страницы форума" +Inserting a Search Window to phpBB3==Добавить окно поиска на phpBB3-форум +To integrate a search window into phpBB3, you must insert some code into a forum template.==Для интеграции окна поиска в phpBB3, вы должны добавить соответствующий код в шаблон форума. +There are several templates that can be used for phpBB3, but in this guide we consider that==Здесь представлены некоторые шаблоны, которые вы можете использовать для phpBB3, но это руководство мы рассмотрим +you are using the default template, \'prosilver\'==на примере использования шаблона по-умолчанию, 'prosilver'. +open styles/prosilver/template/overall_header.html==откройте styles/prosilver/template/overall_header.html +find the line where the default search window is displayed, thats right behind the
\<div id=\"search-box\"\>
statement==найдите строку, где показано окно поиска по-умолчанию. Будет указан следующий текст:
<div id="search-box">
+Insert the following code right behind the div tag==Вставьте следующий код за тэгом "div" +YaCy Forum Search==Поиск по форуму +;YaCy Search==;Поиск YaCy +Check all appearances of static IPs given in the code snippet and replace it with your own IP, or your host name==Проверьте все статические IP-адреса в фрагменте кода и замените их своими IP-адресами или именем вашего хоста. +You may want to change the default text elements in the code snippet==Вы можете изменить стандартный текст в фрагменте кода +To see all options for the search widget, look at the more generic description of search widgets at==Посмотреть все опции и описания виджета поиска вы можете на странице +the configuration for live search.==интеграции поиска. #----------------------------- #File: Load_RSS_p.html @@ -2207,7 +2293,7 @@ URL of the RSS feed==Ссылка на RSS-ленту >Preview<==>Предварительный просмотр:< "Show RSS Items"=="Показать содержимое RSS" Indexing==Индексирование: -Available after successful loading of rss feed in preview==Доступно после успешной загрузки RSS-ленты в предпросмотр. +Available after successful loading of rss feed in preview==Станет доступно после успешной загрузки RSS-ленты в предпросмотр. "Add All Items to Index \(full content of url\)"=="Добавить все элементы в индекс (полное содержимое ссылки)" >once<==>Один раз< >load this feed once now<==>Загрузить эту ленту только один раз< @@ -2325,7 +2411,6 @@ Release<==Версия YaCy< #>QPH<==>Поисковых запросов в час< Last
Seen==Последний
просмотр Location==Расположение ->URLs for
Remote
Crawl<==>Ссылки для
удалённых
индексаторов< Offset==Смещение Send message to peer==Отправить сообщение узлу View profile of peer==Просмотр профиля узла @@ -2450,7 +2535,7 @@ Attributes==Аттрибуты #--------------------------- Performance Settings==Настройки производительности Memory Settings==Настройки оперативной памяти -Memory reserved for JVM==Выделение оперативной памяти для Java +Memory reserved for JVM==Резервирование динамической памяти для Java "Set"=="Сохранить" Resource Observer==Обзор ресурсов DHT-Trigger==DHT-триггер @@ -2463,7 +2548,7 @@ free space==свободного места disable DHT-in below==Остановить DHT-приём при достижении RAM==RAM Accepted change. This will take effect after restart of YaCy==Изменения будут применены после перезапуска YaCy -restart now==перезапустить сейчас +restart now==Перезапустить сейчас Confirm Restart==Подтвердить перезапуск refresh graph==Обновлять диаграмму #show memory tables==показать таблицы памяти @@ -2641,15 +2726,15 @@ Full Description==Полное описание #File: PerformanceSearch_p.html #--------------------------- -Performance Settings of Search Sequence==Performanceeinstellungen des Suchablaufs -Search Sequence Timing==Timing des Suchablaufs -Timing results of latest search request:==Timing-Ergebnisse der letzten Suchanfrage: -Query==Abfrage -Event<==Ereignis< -Comment<==Kommentar< -Time<==Zeit< -Duration \(ms\)==Dauer (Millisekunden) -Result-Count==Anzahl Ergebnisse +Performance Settings of Search Sequence==Настройки производительности последовательного поиска +Search Sequence Timing==Задержки последовательного поиска +Timing results of latest search request:==Задержки результата последнего поискового запроса: +Query==Запрос +Event<==Событие< +Comment<==Комментарий< +Time<==Время< +Duration \(ms\)==Длительность (мс) +Result-Count==Число результатов The network picture below shows how the latest search query was solved by asking corresponding peers in the DHT:==Das Netzwerkbild zeigt wie die letzte Suche durch Anfragen bei zuständigen Peers im DHT gelöst wurde. red -> request list alive==rot -> Request Liste aktiv green -> request has terminated==grün -> Request wurde beendet @@ -2662,8 +2747,8 @@ grey -> the search target hash order position\(s\) \(more targets if a dht pa Indexing with Proxy==Индексация через прокси-сервер YaCy can be used to 'scrape' content from pages that pass the integrated caching HTTP proxy.==YaCy может индексировать кэшированные страницы с помощью прокси. When scraping proxy pages then no personal or protected page is indexed;==Личные и защищённые страницы не индексируются! -# This is the control page for web pages that your peer has indexed during the current application run-time==Dies ist die Kontrollseite für Internetseiten, die Ihr Peer während der aktuellen Sitzung -# as result of proxy fetch/prefetch.==durch Besuchen einer Seite indexiert. +# This is the control page for web pages that your peer has indexed during the current application run-time==Здесь показаны вэб-страницы проиндексированные вашим узлом во время с момента запуска приложения, +# as result of proxy fetch/prefetch.==в результате работы прокси-сервера. # No personal or protected page is indexed==Личные или защищённые страницы не индексируются. those pages are detected by properties in the HTTP header \(like Cookie-Use, or HTTP Authorization\)==Такие страницы определяются по свойствам HTTP-заголовка (использование куки или HTTP-авторизации) or by POST-Parameters \(either in URL or as HTTP protocol\)==или по параметрам POST (в адресе или передающиеся через HTTP-протокол) @@ -2682,7 +2767,7 @@ URLs as crawling start points for crawling.== Prefetch Depth==Уровень предварительной выборки A prefetch of 0 means no prefetch; a prefetch of 1 means to prefetch all==0 - отключение предварительной выборки, 1 - включение предварительной выборки. embedded URLs, but since embedded image links are loaded by the browser==Предварительная выборка -this means that only embedded href-anchors are prefetched additionally.==будет действовать только в отношении href-якорей, так включенные ссылки загружаются браузером. +this means that only embedded href-anchors are prefetched additionally.==будет действовать только в отношении href-якорей, так как включенные ссылки загружаются браузером. Store to Cache==Сохранять в кэш It is almost always recommended to set this on. The only exception is that you have another caching proxy running as secondary proxy and YaCy is configured to used that proxy in proxy-proxy - mode.==Рекомендуется отключать только в том случае, если вы используете второй кэширующий прокси-сервер и YaCy настроен на использование в режиме прокси-прокси. Do Local Text-Indexing==Индексировать локальный текст @@ -2845,8 +2930,9 @@ Crawl results will appear in the==Результаты индексирован Peers offering remote crawl URLs==Узлы предлагающие ссылки для удалённого индексирования If the remote crawl option is switched on, then this peer will load URLs from the following remote peers:==Если удалённое индексирование разрешено, то ваш узел будет загружать ссылки от следующих узлов: >Name<==>Имя< +URLs for
Remote
Crawl==Ссылки для
удалённых
индексаторов #>Remote
Crawl<==>Удалённый
индексатор< -#>Release/
SVN<==>Версия/
SVN< +>Release<==>Версия< >PPM<==>Страниц в минуту (PPM)< >QPH<==>Запросов в час (QPH)< >Last
Seen<==>Последний
просмотр< @@ -2914,6 +3000,7 @@ Version==версии #File: Settings_Proxy.inc #--------------------------- +Remote Proxy \(optional\)==Удалённый прокси (опционально) YaCy can use another proxy to connect to the internet. You can enter the address for the remote proxy here:==YaCy может использовать другой прокси для соединения с интернетом. Вы можете указать адрес удалённого прокси здесь. Use remote proxy==Использовать удалённый прокси Enables the usage of the remote proxy by yacy==Разрешает использование удалённого прокси @@ -2978,6 +3065,7 @@ Your peer will then upload the seed-bootstrap information periodically,==Ваш but only if there have been changes to the seed-list.==только если сид-список будет изменён. Upload Method==Способ загрузки "Submit"=="Сохранить" +>URL<==>Ссылка< Retry Uploading==Повторить загрузку Here you can specify which upload method should be used.==Здесь вы можете указать желаемый способ загрузки. Select 'none' to deactivate uploading.==Выберите 'none' для отключения загрузки. @@ -3005,6 +3093,7 @@ Path==Путь The remote path on the FTP server, like==Удалённый путь FTP-сервера, наподобие Missing sub-directories are NOT created automatically.==Отсутствующие подпапки не создаются автоматически. Username==Имя пользователя +>Server<==>Сервер< Your log-in at the FTP server==Ваш логин на FTP-сервере Password==Пароль The password==Ваш пароль @@ -3016,7 +3105,7 @@ The password==Ваш пароль Uploading via SCP:==Загрузка по SCP: This is the account for a server where you are able to login via ssh.==Это учётная запись для сервера, на который вы сможете войти через ssh. -#Server==Сервер +>Server<==>Сервер< The host where you have an account, like 'my.host.net'==Хост, на котором вы имеете учётную запись, наподобие 'mein.host.net' Server Port==Порт сервера The sshd port of the host, like '22'==Sshd-порт хоста, наподобие '22' @@ -3152,13 +3241,13 @@ value="add"==Значение="Добавить" #File: Status.html #--------------------------- -Console Status==Статус консоли +Console Status==Консоль управления узлом Log-in as administrator to see full status==Войдите как администратор. Welcome to YaCy!==Добро пожаловать в YaCy! Your settings are _not_ protected!==Ваши настройки не защищены паролем! Please open the accounts configuration page immediately==Пожалуйста перейдите по ссылке Настройка аккаунта немедленно and set an administration password.==и установите пароль администратора. -You have not published your peer seed yet. This happens automatically, just wait.==Ваш узел еще не активен. Это происходит автоматически, пожалуйста, подождите. +You have not published your peer seed yet. This happens automatically, just wait.==Ваш узел еще не активен. Потребуется немного времени, пожалуйста, подождите. The peer must go online to get a peer address.==Ваш узел должен быть онлайн для получения адресов других узлов. You cannot be reached from outside.==Вы недоступны извне. A possible reason is that you are behind a firewall, NAT or Router.==Возможно, вы находитесь за брандмауэром, NAT или роутером. @@ -3168,10 +3257,10 @@ global index on your own search page.==на главной странице по "idea"="идея" "good"="хороший" "Follow YaCy on Twitter"=="Следуй за YaCy на Twitter" -We encourage you to open your firewall for the port you configured \(usually: 8090\),==Рекомендуем открыть доступ к порту на Вашем брандмауэре, который Вы настроили (обычно: 8090), +We encourage you to open your firewall for the port you configured \(usually: 8090\),==Рекомендуется открыть доступ к порту на Вашем брандмауэре, который Вы настроили (обычно: 8090), or to set up a 'virtual server' in your router settings \(often called DMZ\).==или выполните настройку "виртуального сервера" в настройках Вашего роутера (настройка обычно называется DMZ). Please be fair, contribute your own index to the global index.==Пожалуйста, примите участие в создании глобального поискового индекса. -Free disk space is lower than \#\[minSpace\]\#. Crawling has been disabled. Please fix==Свободное место на диске меньше, чем #[minSpace]#. индексирование сайтов приостановлено. Пожалуйста, освободите место на диске. +Free disk space is lower than \#\[minSpace\]\#. Crawling has been disabled. Please fix==Свободное место на диске меньше, чем #[minSpace]#. Индексирование сайтов приостановлено. Пожалуйста, освободите место на диске. it as soon as possible and restart YaCy.==Потребуется перезапуск YaCy. Free memory is lower than \#\[minSpace\]\#. DHT has been disabled. Please fix==Свободной памяти меньше, чем \#\[minSpace\]\#. DHT отключен. Пожалуйста, исправьте. Crawling is paused! If the crawling was paused automatically, please check your disk space.==Индексирование остановлено! Если индексирование остановлено не вами, то проверьте свободное место на диске. @@ -3196,7 +3285,7 @@ For community support, please visit our==Для поддержки сообще System Status==Статус системы System==Система YaCy version==Версия YaCy -Unknown==Неизвестный +Unknown==неизвестная Uptime==Время работы Processors:==Процессоры: Load:==Загрузка процессора: @@ -3206,14 +3295,17 @@ password-protected==Пароль используется Unrestricted access from localhost==Неограниченный доступ с локального хоста Address==Адрес peer address not assigned==Адрес узла не назначен -Public Address:==Публичный адрес: -YaCy Address:==YaCy адрес: +Host:==Ваш хост: +Public Address:==Внешний IP-адрес: +YaCy Address:==YaCy-адрес: Peer Host==Узел хоста -#Port Forwarding Host==Port Forwarding Host +#Port Forwarding Host==Порт пересылающего узла +Proxy==Прокси +Transparent ==Прозрачность not used==не используется -broken==повреждено +broken::connected==потеряно::подключено +broken==потеряно connected==подключено -#Remote Proxy==Удалённый прокси not used==не используется Used for YaCy -> YaCy communication:==Используется для YaCy -> YaCy коммуникаций: WARNING:==ПРЕДУПРЕЖДЕНИЕ: @@ -3228,7 +3320,7 @@ No==Нет Auto-popup on start-up==Запускать при старте Disabled==Отключено Enable\]==Включить] -Enabled ==Сброс +Traffic ==Траффик +>Reset==>Сброс Proxy:==Прокси: Crawler:==Индексатор: Incoming Connections==Входящие соединения @@ -3265,9 +3357,9 @@ Enabled: Updating to file==Включено: Обновление до файл #File: Steering.html #--------------------------- Steering==Управление -Checking peer status...==Проверка статуса узла... -Peer is online again, forwarding to status page...==Узел снова онлайн. Перенаправление на страницу состояния ... -Peer is not online yet, will check again in a few seconds...==Узел пока не онлайн, проверю через несколько секунд... +Checking peer status...==Проверка состояния узла... +Peer is online again, forwarding to status page...==Узел снова онлайн. Перенаправление на страницу управления узлом ... +Peer is not online yet, will check again in a few seconds...==Узел пока не онлайн. Проверю через несколько секунд... No action submitted==Нет совершённых действий Go back to the Settings page==Вернуться назад на страницу настроек Your system is not protected by a password==Ваш узел не защищён паролем @@ -3444,6 +3536,104 @@ Primary Key==Первичный ключ "Commit"=="Отправить" #----------------------------- +#File: YMarks.html +#----------------------------- +Login==Логин +TreeView==Вид дерева +Import Bookmarks==Импорт закладок +Bookmarks \(XBEL\)==Закладки (XBEL) +YaCy Bookmarks==Закладки YaCy +The information that is presented on this page can also be retrieved as XML==Информация представленная на этой странице, также может быть получена в виде XML. +Click the API icon to see the XML.==Нажмите на иконку API для просмотра XML. +To see a list of all APIs, please visit the API wiki page.==Для просмотра списка всех API, пожалуйста, посетите wiki-страницу API. +Bookmarks \(user: #[user]# size: #[size]#\)==Закладки (пользователь: #[user]# размер: #[size]#) +Explorer==Проводник +Tag Manager==Менеджер тэгов +Select \(multiple\) tags ...==Выбрать (несколько) тэгов +>Import<==>Импорт< +Export==Экспорт +All tag actions are applied to the sub-set of bookmarks defined by this query.==Все действия тэгов применяются к наборам закладок, определённых этим запросом. +>help<==>Помощь< +>Query<==>Запрос< +Query Type==Тип запроса +Tags \(comma seperated\)==Тэги (через запятую) +Tags \(regexp\)==Тэги (регулярные выражения) +Folders \(comma seperated\)==Папки (через запятую) +Folders \(regexp\)==Папки (регулярные выражения) +Title \(regexp\)==Заголовок (регулярные выражения) +Description \(regexp\)==Описание (регулярное выражение) +Enter tags to add \(replace with\)==Введите тэги для добавления (с перезаписью) +\(comma separated tags\)==(укажите тэги через запятую) +"Replace"=="Заменить" +Select tags to remove ...==Выберите тэги для удаления +Bookmark Importer==Импортёр закладок +If you put in your bookmarks here, you can access them anywhere where you have access to your YaCy peer. Think of it as your 'personal cloud' for bookmarking.==К хранимым здесь закладкам, вы будете иметь доступ из любого места, где вам будет доступен ваш узел. Ваше "персональное облако" закладок. +Surrogate XML==Замещение XML +YaCy White/Black List==Белый/черный список YaCy +YaCy Crawl Starts \(admin\)==Запустить индексацию +>Crawl Start<==>Запустить индексацию< +Bookmark file==Файл закладок +Folder settings==Настройки папки +A folder structure is helpful to organize your bookmarks in a hierarchical way.==Папки ваших закладок будут огранизованы иерархически. +Source folder==Исходная папка +Target folder==Папка назначения +>Imported Bookmarks==>Импортированные +Automatic tagging==Автоматическое присвоение тэгов +Tags are words that are attached to documents as metadata. It is possible to read all the documents and find the attached tags automatically.==Тэги слов прикрепляются к документам как метаданные, что делает возможным чтение всех документов и поиск прикреплённого тэга +Off==Отключить +Only for empty tags==Только с пустыми тэгами +Overwriting existing tags==Перезаписать существующие тэги +Merging with existing tags==Объединить с существующими тэгами +Automatic Indexing==Автоматическая индексация +While doing the bookmark import, YaCy can push all URLs to the indexing process==Пока производится импорт закладок, YaCy может начать индексирование всех ссылок +No indexing==Нет индексации +>Index every bookmark entry<==>Индекс каждой закладки< +Index every bookmark entry plus all directly linked pages==Индекс всех закладок вместе со всеми ссылающимися страницами +Index all domains from all bookmarks completely==Индекс всех доменов из всех закладок полностью +include all media \(image/movie/document\) links==Включая все ссылки на медиа-файлы (изображения/кино/документы) +Add & Edit Bookmark==Добавить и редактировать закладку +Public:==Публичная +yes==да +no==нет +URL:==URL +Title:==Заголовок +Description:==Описание +Folder \(/folder/subfolder\):==Папка (папка/подпапка) +Tags \(comma separated\):==Тэги (через запятую) +Craw Start==Начать индексирование +>Bookmark<==>Закладка< +Bookmarks==Закладки +Restrict to start domain==Ограничение начального домена +Restrict to sub-path of given url==Ограничение части указанной ссылки +Crawling Depth==Глубина индексирования +bookmark only \(0\)==только закладки +shallow crawl \(4\)==неглубокое индексирование +deep crawl \(8\)==глубокое индексирование +deeper crawl \(16\)==очень глубокое индексирование +indefinite \(99\)==неограниченное +Limitations==Ограничения +not more than==не более чем +documents==документов +Dynamic URLs==Динамические ссылки +allow ==Разрешены +query-strings \(urls with a '?' in the path\)==строки-запросы(ссылки с '?' в пути) +Scheduler==Планировщик +run this crawl once==запустить этот индексатор только один раз +scheduled, look every==запланировано, выполнять каждые +minutes==минут +hours==часов +days==дней +for new documents automatically.==для новых документов автоматически. +Filter:==Фильтр +No filter==Без фильтра +multiple==несколько +Sorry, the function you have requested is not yet available!==Извините, запрошенная вами функция не доступна! +"Import"=="Импорт" +#--------------------------- + + + + #File: Table_YMark_p.html #--------------------------- Table Viewer==Просмотр таблиц @@ -3531,6 +3721,7 @@ New Password is empty.==Новый пароль пустой. #File: ViewFile.html #--------------------------- +See the page info about the url.==Смотрите информацию о ссылке. YaCy \'\#\[clientname\]\#\': View URL Content==YaCy '#[clientname]#': Просмотр содержимого URL-ссылки View URL Content==Показать сведения об URL-адресе >Get URL Viewer<==>Просмотр URL-адреса< @@ -3563,7 +3754,7 @@ Unable to download resource content.==Невозможно загрузить с Unable to parse resource content.==Не удалось разобрать содержимое ресурса. Unsupported protocol.==Неподдерживаемый протокол. >Original Content from Web<==>Оригинальное содержимое из вэб< -Parsed Content==Разобранное содержимое +Parsed Content==Анализ контента >Original from Web<==>Оригинал из вэб< >Original from Cache<==>Оригинал из кэша< >Parsed Tokens<==>Разобранные маркеры< @@ -3571,6 +3762,7 @@ Parsed Content==Разобранное содержимое #File: ViewLog_p.html #--------------------------- +Server Log==Лог сервера Lines==строк reversed order==в обратном порядке "refresh"=="Обновить" @@ -3586,7 +3778,7 @@ The profile can't be fetched.==Этот профиль не может быть The peer==Узел is not online.==не на связи. This is the Profile of==Профиль -Name==Имя +>Name==>Имя Nick Name==Прозвище Homepage==Домашная страница eMail==Электронный адрес @@ -3645,14 +3837,12 @@ delete vocabulary<==Удалить словарь< #File: Crawler_p.html #--------------------------- +Click on this API button to see an XML with information about the crawler status==Нажмите для просмотра XML-файла с информацией о состоянии индексатора. >Crawler<==>Индексатор< >Queues<==>Очереди индексатора< -Queue==Очередь +>Queue<==>Очередь< Pause/==Старт/ Resume==Стоп -pause reason:==Причина остановки -resource observer:==обзор ресурсов -not enough disk space,==нет места на диске Crawler PPM==Скорость индексатора Error with profile management. Please stop YaCy, delete the file DATA/PLASMADB/crawlProfiles0.db==Ошибка профиля. Пожалуйста, остановите YaCy, удалите файл DATA/PLASMADB/crawlProfiles0.db and restart.==и перезапустите программу. @@ -3670,10 +3860,11 @@ Error with file input==Ошибка с указанным файлом started.==запущено. Please wait some seconds,==Пожалуйста, подождите несколько секунд, it may take some seconds until the first result appears there.==это может занять несколько секунд, пока ожидается первый результат. +If you crawl any un-wanted pages, you can delete them here.
==Если вы проиндексировали нежелательные страницы, то вы можете удалить их здесь.
>Size==>Размер >Progress<==>Ход работы< #Max==Максимально -"set"=="Установить" +"set"=="Сохранить" #Indexing==Индексирование Loader==Загрузок >Index Size<==>Размер индекса< @@ -3696,6 +3887,16 @@ Level==Значение Postprocessing Progress==Постобработка Traffic \(Crawler\)==Трафик индексатора >Load<==>Загрузка процессора< +pending:==запросы: +idle==Ожидание +>Running Crawls==>Выполняется индексация +Name==Название +Status==Состояние +Running==Выполняется +"Terminate"=="Прервать" +Crawled Pages==Проиндексированные страницы +Title==Заголовок +"Pause this queue (running)"=="Остановить эту очередь (выполняется)" #----------------------------- #File: WatchWebStructure_p.html @@ -3819,7 +4020,9 @@ Click the API icon to see an example call to the search rss API.==Нажмите To see a list of all APIs, please visit the==Список всех API, смотрите на странице API wiki page==Wiki API loading from local index...==загружается из локального индекса... +parsing result...==анализ результата... e="Search"==e="Поиск" +"Search..."=="Поиск..." #----------------------------- #File: yacysearch.html @@ -3874,9 +4077,9 @@ Pictures==Изображения #File: yacysearchtrailer.html #--------------------------- Show search results for "\#\[query\]\#" on map==Показать результат поиска "#[query]#" на карте ->Domain Facet==>Навигатор домена ->Name Space Facet==>Навигатор пространства имен ->Author Facet==>Автор Навигатор +>Domain Facet==>Навигатор по доменам +>Name Space Facet==>Навигатор по имени +>Author Facet==>Навигатор по автору #----------------------------- ### Subdirectory api ### @@ -3917,8 +4120,8 @@ English, Englisch==Русский, Русский YaCy Administration==Управление YaCy YaCy - Distributed Search Engine==YaCy - Система распределённого поиска ### SEARCH INTERFACES ### -Search Interfaces==Интерфейсы поиска -Web Search==Веб поиск +Search Interfaces==Интерфейсы поиска +Web Search==Вэб-поиск File Search==Поиск файлов Host Browser==Просмотр хостов Solr Default Core==Параметры ядра Solr @@ -3931,9 +4134,9 @@ Location Search==Локальный поиск # Rich Client Search is currently commented out Rich Client Search==Rich Client Suche Compare Search==Сравнить поиск -URL Viewer==Просмотр URL-адреса +URL Viewer==Просмотр ссылок ### SEARCH DESIGN ### -Search Design==Интеграция поиска +Search Design==Интеграция поиска Search Integration into External Sites==Интеграция поискового интерфейса в другие сайты Integrated Search Configuration==Настройка интегрируемого поиска ### INDEX CONTROL ### @@ -3954,14 +4157,14 @@ Computation==Лог сервера >Terminal==>Терминал >Bookmarks==>Закладки ### PEER CONTROL ### -Peer Control==Управление узлом +Peer Control==Управление узлом Admin Console==Консоль администратора Confirm Restart==Подтвердить перезапуск Re-Start==Перезапустить Confirm Shutdown==Подтвердить выключение >Shutdown==>Выключить ### THE YACY PROJECT ### -The YaCy Project==Проект YaCy +The YaCy Project==Проект YaCy Project Home==Домашняя страница проекта Tutorials<==Руководства< Forum/Discussion<==Форум< @@ -3977,6 +4180,7 @@ Administration<==Администрирование< >Web Search<==>Вэб‐поиск< >File Search<==>Поиск файлов< >Host Browser<==>Просмотр хостов< +>Tutorial<==>Помощь< >About Us<==>О пользователе< Help / YaCy Wiki==YaCy Wiki #----------------------------- @@ -3990,7 +4194,7 @@ Incoming Requests Overview==Обзор входящих запросов Incoming Requests Details==Подробности входящих запросов All Connections<==Все соединения< Local Search<==Локальный поиск< -#Log==Лог +Log==Лог Host Tracker==Хост-трекер Remote Search<==Удалённый поиск< #----------------------------- @@ -4020,7 +4224,7 @@ Content Control==Управление контентом >Server Log<==>Лог сервера< >Concurrent Indexing<==>Параллельное индексирование< >Memory Usage<==>Использование памяти< ->Search Sequence<==>Последовательность поиска< +>Search Sequence<==>Последовательный поиск< ## Messages Submenu >Messages<==>Сообщения< >Overview<==>Обзор< @@ -4037,7 +4241,7 @@ Content Control==Управление контентом #File: env/templates/submenuConfig.template #--------------------------- -Peer Administration Console==Консоль администрирования узла +Peer Administration Console==Консоль управления узлом >Status==>Состояние Basic Configuration==Основная конфигурация >Accounts==>Учетные записи @@ -4076,6 +4280,7 @@ Proxy Use==Использование прокси Local Crawling==Локальное индексирование Global Crawling==Глобальное индексирование Surrogate Import==Замещающий импорт +Crawl Results==Результаты индексирования Processing Monitor==Монитор процессов Crawler Queues==Очереди индексирования Web== @@ -4105,8 +4310,8 @@ User Profile==Профиль пользователя Index Administration==Администрирование индекса URL Database Administration==Управление базой данных индекса Index Deletion==Удаление индекса -Index Sources & Targets==Индекс источников и цели -#Solr Schema Editor==Редактор схемы Solr +Index Sources & Targets==Индекс источников и целей +Solr Schema Editor==Редактор схемы Solr Field Re-Indexing==Переиндексация Reverse Word Index==Обратный индекс слов Index Cleaner==Очистка индекса @@ -4119,11 +4324,11 @@ Parser Configuration==Конфигурация парсера #--------------------------- Web Crawler Control==Управление вэб-индексатором Start a Web Crawl==Запуск вэб-индексатора -Crawl Start==Запуск индексирования +#Crawl Start==Запуск индексирования Crawl Profile Editor==Изменение профиля индексатора Crawler Queues==Очереди индексатора Indexing<==Индексирование< -Full Site Crawl/
Sitemap Loader==Полное индексирование сайта/
Загрузка карты сайта +Full Site Crawl/ Sitemap Loader==Полное индексирование сайта/Загрузка карты сайта Loader<==Загрузчик< URLs to be processed==выполняются URL-адреса Processing Queues==Состояние очередей @@ -4138,22 +4343,21 @@ Media Crawl Queues==Очереди индексирования медиа-фа #--- New menu items --- Index Creation==Создание индекса Crawler/Spider<==Индексатор< -#Crawl Start
(Expert)==Запуск индексирования
(Эксперт) -Network
Scanner==Сканер
сети +Crawl Start (Expert)==Запуск расширенного индексирования +Network Scanner==Сканер сети #>Intranet
Scanner<==>Сканер
Интранет< -Crawling of==Индексирование -MediaWikis==MediaWiki ->phpBB3 Forums<==>phpBB3‐форумов< +Crawling of MediaWikis==Индексирование MediaWiki +>Crawling of phpBB3 Forums<==>Индексирование phpBB3‐форумов< Content Import<==Импорт контента< -RSS Feed
Importer==Импорт
RSS-лент -OAI-PMH
Importer==Импорт данных
OAI-PMH +RSS Feed Importer==Импорт RSS-лент +OAI-PMH Importer==Импорт данных OAI-PMH Network Harvesting<==Сеть индексирования< -Remote
Crawling==Удалённое
индексирование -Scraping
Proxy==Кэширующий
прокси -Database Reader<==Обозреватель баз данных< -for phpBB3 Forums==для форумов phpBB3 -Dump Reader for==Обозреватель дампов для -MediaWiki dumps==MediaWiki‐дампы +Remote Crawling==Удалённое индексирование +Scraping Proxy==Кэширующий прокси +>Database Reader<==>Обозреватель баз данных< +#for phpBB3 Forums==для форумов phpBB3 +Database Reader for phpBB3 Forums==Обозреватель баз данных phpBB3‐форумов +Dump Reader for MediaWiki dumps==Обозреватель дампов MediaWiki #----------------------------- #File: env/templates/submenuPortalIntegration.template @@ -4354,12 +4558,12 @@ Accounts==Учётные записи #"delete bookmark"=="удалить закладку" "YaCy Bookmarks"=="YaCy Закладки" #>Title==>Заголовок -#>Tags==>Тэги +>Tags<==>Тэги< #>Date==>Дата #'Hash'=='Хэш' 'Public'=='Общий' 'Title'=='Заголовок' -#'Tags'=='Тэги' +'Tags'=='Тэги' 'Folders'=='Папки' 'Date'=='Дата' #-----------------------------