Translations by q_i

q_i has submitted the following strings to this translation. Contributions are visually coded: currently used translations, unreviewed suggestions, rejected suggestions.

150 of 140 results
~
A snapshot can be created using
2014-06-19
Снимок может быть создан с помощью
~
--run-script-one script_file : Run script_file as root on the VM the first time it is booted, but never again.
2014-06-19
--run-script-one <скрипт-файл> : Запускает скрипт-файл из-под root при первой загрузке ВМ и больше никогда.
~
--password password : Allow login to the VM using the ubuntu account and this provided password
2014-06-19
--password <пароль>: Разрешить подключение к ВМ с использованием аккаунта ubuntu и указанного пароля
2014-06-19
--password <пароль>: Разрешить подключение к ВМ с использованием аккаунта ubuntu и данного пароля
~
Some other parameters will have an impact on the cloud-init configuration
2014-06-19
Следующие параметры будут оказывать влияние на конфигурацию cloud-init
~
The <application>uvt-kvm wait {name}</application> can be used to wait until the creation of the VM has completed
2014-06-19
Команду <application>uvt-kvm wait {имя}</application> можно использовать для ожидания окончания создания виртуальной машины.
~
To create a privileged container, you can simply to
2014-06-16
Чтобы создать привилегированное контейнер, вы можете просто
~
There are several ways to automate the Ubuntu installation process, for example using preseeds, kickstart, etc. Refer to the <ulink url="https://help.ubuntu.com/14.04/installation-guide/">Ubuntu Installation Guide</ulink> for details.
2014-06-16
Существует несколько способов автоматизации процесса установки Ubuntu, например, с помощью preseed, kickstart и др. Для более подробной информации обратитесь к <ulink url="https://help.ubuntu.com/14.04/installation-guide/">Ubuntu Installation Guide</ulink>.
2014-06-16
Существует несколько способов автоматизировать процесс установки Ubuntu, например, с помощью preseed, kickstart и др. Для более подробной информации обратитесь к <ulink url="https://help.ubuntu.com/14.04/installation-guide/">Ubuntu Installation Guide</ulink>.
~
The installation of slapd will create a working configuration. In particular, it will create a database instance that you can use to store your data. However, the suffix (or base DN) of this instance will be determined from the domain name of the localhost. If you want something different, edit <filename>/etc/hosts</filename> and replace the domain name with one that will give you the suffix you desire. For instance, if you want a suffix of <emphasis>dc=example,dc=com</emphasis> then your file would have a line similar to this:
2013-02-28
Установка slapd создаст работающую конфигурацию. В частности, она создаст экземпляр базы данных, которую вы можете использовать для хранения своих данных. Однако суффикс (или базовый DN) этого экземпляра будет определён из доменного имени localhost. Если вы хотите использовать что-то другое, отредактируйте <filename>/etc/hosts</filename> и замените доменное имя на подходящее. Например, если вам нужен суффикс <emphasis>dc=example,dc=com</emphasis>, то ваш файл должен иметь подобную строку:
~
If you need to customize any configuration file or run certain actions (scripts or commands) to configure features not available on <application>Zentyal</application> place the custom configuration file templates on /etc/zentyal/stubs/&lt;module&gt;/ and the hooks on /etc/zentyal/hooks/&lt;module&gt;.&lt;action&gt;.
2013-02-28
Если вам требуется настроить под себя какой-либо файл конфигурации или выполнить определенные действия (сценарий или команду) по настройке, не доступной из <application>Zentyal</application>, поместите шаблон конфигурационного файла в <application>Zentyal</application> и указатели (hooks) в /etc/zentyal/hooks/&lt;module&gt;.&lt;action&gt;.
~
To access <application>Zentyal</application> web interface, browse into https://localhost/ (or the IP of your remote server). As Zentyal creates its own self-signed SSL certificate, you will have to accept a security exception on your browser.
2013-02-28
Для доступа к веб-интерфейсу <application>Zentyal</application> подключитесь к адресу https://localhost/ (или IP-адресу вашего удалённого сервера). Поскольку Zentyal создаёт собственный самозаверенный сертификат SSL, вы получите предупреждение системы безопасности в вашем браузере.
~
<application>Zentyal</application> publishes one major stable release once a year (in September) based on latest Ubuntu LTS release. Stable releases always have even minor numbers (e.g. 2.2, 3.0) and beta releases have odd minor numbers (e.g. 2.1, 2.3). Ubuntu 12.04 comes with <application>Zentyal</application> 2.3 packages. If you want to upgrade to a new stable release published after the release of Ubuntu 12.04 you can use <ulink url="https://launchpad.net/~zentyal/">Zentyal Team PPA</ulink>. Upgrading to newer stable releases can provide you minor bugfixes not backported to 2.3 in Precise and newer features.
2013-02-28
<application>Zentyal</application> выпускает по одной стабильной версии в год (в сентябре), в качестве базового дистрибутива для которой используется последний выпуск Ubuntu LTS. Стабильные выпуски всегда имеют чётное значение младшей части версии (например, 2.2, 3.0), а бета-версии - нечётное (2.1, 2.3). Ubuntu 12.04 поставляется с версией пакетов <application>Zentyal</application> 2.3. Если вы хотите обновиться до последней стабильной версии, опубликованной после выпуска Ubuntu 12.04, используйте <ulink url="https://launchpad.net/~zentyal/">Zentyal Team PPA</ulink>. Обновление до новейшей стабильной версии может предоставить вам исправления незначительных ошибок, которые не будут бэкпортироваться в версию 2.3 для Precise, а также добавить новые возможности.
~
<application>Zentyal</application> is a Linux small business server, that can be configured as a Gateway, Infrastructure Manager, Unified Threat Manager, Office Server, Unified Communication Server or a combination of them. All network services managed by Zentyal are tightly integrated, automating most tasks. This helps to avoid errors in the network configuration and administration and allows to save time. <application>Zentyal</application> is open source, released under the GNU General Public License (GPL) and runs on top of Ubuntu GNU/Linux.
2013-02-28
<application>Zentyal</application> — это Linux-сервер для малого бизнеса, который может быть сконфигурирован как шлюз (Gateway), инфраструктурный менеджер (Infrastructure Manager), защитный сервер (Unified Threat Manager), офисный сервер (Office Server), коммуникационный сервер (Unified Communication Server) или любое их сочетание. Все сетевые сервисы, управляемые Zentyal, тесно интегрированы, автоматизируя большинство задач. Это помогает избежать ошибок в сетевых настройках и администрировании, и, как следствие, сэкономить время. <application>Zentyal</application> имеет открытый исходный код, опубликованный под лицензией GNU General Public License (GPL) и запускается поверх Ubuntu GNU/Linux.
~
This will generate the keys using the <emphasis>Digital Signature Algorithm (DSA)</emphasis> method. During the process you will be prompted for a password. Simply hit <emphasis>Enter</emphasis> when prompted to create the key.
2013-02-27
Эта команда сгенерирует ключи с помощью метода <emphasis>Digital Signature Algorithm (DSA)</emphasis>. Во время процесса генерации вам будет предложено ввести пароль. Просто нажмите <emphasis>Enter</emphasis> на запрос о создании ключа.
~
To add a user account, use the following syntax, and follow the prompts to give the account a password and identifiable characteristics such as a full name, phone number, etc.
2013-02-26
Чтобы добавить учётную запись пользователя, используйте следующий синтаксис и следуйте указаниям системы, чтобы назначить учётной записи пароль и указать другие данные, такие как полное имя, номер телефона и прочее.
~
<emphasis>Manage the system with Landscape</emphasis>: Landscape is a paid service provided by Canonical to help manage your Ubuntu machines. See the <ulink url="http://www.canonical.com/projects/landscape">Landscape</ulink> site for details.
2013-02-26
<emphasis>Управление системой с Landscape</emphasis>: это платные услуги, оказываемые компанией Canonical, чтобы помочь в управлении вашей Ubuntu машиной. Смотрите сайт <ulink url="http://www.canonical.com/projects/landscape">Landscape</ulink> для подробностей.
~
There are a couple of different ways that Ubuntu Server Edition is supported, commercial support and community support. The main commercial support (and development funding) is available from Canonical Ltd. They supply reasonably priced support contracts on a per desktop or per server basis. For more information see the <ulink url="http://www.canonical.com/services/support">Canonical Services</ulink> page.
2013-02-25
Существует два варианта поддержки Ubuntu Server Edition: коммерческая поддержка и поддержка сообщества. Основную коммерческую поддержку (и финансирование разработки) осуществляет Canonical Ltd. За умеренную плату она предоставляет поддержку по договорам на каждую настольную систему или на сервер. Подробную информацию смотрите на странице <ulink url="http://www.canonical.com/services/support">Canonical Services</ulink>.
383.
Open the Network Manager GUI, select the VPN tab and then the 'Add' button. Select OpenVPN as the VPN type in the opening requester and press 'Create'. In the next window add the OpenVPN's server name as the 'Gateway', set 'Type' to 'Certificates (TLS)', point 'User Certificate' to your user certificate, 'CA Certificate' to your CA certificate and 'Private Key' to your private key file. Use the advanced button to enable compression (e.g. comp-lzo), dev tap, or other special settings you set on the server. Now try to establish your VPN.
2014-06-16
Откройте окно Network Manager, выберите закладку VPN и нажмите кнопку 'Добавить' ('Add'). Выберите OpenVPN в качестве типа VPN-соединения в открывшемся диалоге и нажмите кнопку 'Создать' ('Create'). В следующем окне укажите имя сервера OpenVPN в поле 'Шлюз' ('Gateway'), установите 'Тип' ('Type') в 'Сертификаты (TLS)' ('Certificates (TLS)'), в поле 'Сертификат пользователя' ('User Certificate') укажите свой сертификат пользователя, в поле 'Сертификат ЦС' ('CA Certificate') - сертификат центра сертификации, в поле 'Личный ключ' ('Private Key') - свой файл с закрытым ключом. По кнопке 'Дополнительно' можно включить использование сжатия данных (например, comp-lzo), устройства tap, и настроить другие специфические параметры сервера. Теперь попробуйте установить VPN-соединение.
388.
First download and install the latest <ulink url="http://www.openvpn.net/index.php/open-source/downloads.html">OpenVPN Windows Installer</ulink>. OpenVPN 2.3.2 was the latest when this was written. As of this writing, the management GUI is included with the Windows binary installer.
2014-06-16
Вначале скачайте и установите последний <ulink url="http://www.openvpn.net/index.php/open-source/downloads.html">OpenVPN Windows Installer</ulink>. На момент написания данного руководства последней версией OpenVPN была 2.3.2 и GUI-интерфейс для управления был включен в пакет установки для Windows.
391.
# C:\Program Files\OpenVPN\config\client.ovpn client remote server.example.com port 1194 proto udp dev tun dev-type tun ns-cert-type server reneg-sec 86400 auth-user-pass auth-retry interact comp-lzo yes verb 3 ca ca.crt cert "C:\\Users\\username\\My Documents\\openvpn\\client.crt" key "C:\\Users\\username\\My Documents\\openvpn\\client.key" management 127.0.0.1 1194 management-hold management-query-passwords auth-retry interact ; Set the name of the Windows TAP network interface device here dev-node MyTAP
2014-06-20
# C:\Program Files\OpenVPN\config\client.ovpn client remote server.example.com port 1194 proto udp dev tun dev-type tun ns-cert-type server reneg-sec 86400 auth-user-pass auth-retry interact comp-lzo yes verb 3 ca ca.crt cert "C:\\Пользователи\\Имя_пользователя\\Документы\\openvpn\\client.crt" key "C:\\Пользователи\\Имя_пользователя\\Документы\\openvpn\\client.key" management 127.0.0.1 1194 management-hold management-query-passwords auth-retry interact ; Set the name of the Windows TAP network interface device here dev-node MyTAP
2014-06-20
# C:\Program Files\OpenVPN\config\client.ovpn client remote server.example.com port 1194 proto udp dev tun dev-type tun ns-cert-type server reneg-sec 86400 auth-user-pass auth-retry interact comp-lzo yes verb 3 ca ca.crt cert "C:\\Users\\username\\My Documents\\openvpn\\client.crt" key "C:\\Users\\username\\My Documents\\openvpn\\client.key" management 127.0.0.1 1194 management-hold management-query-passwords auth-retry interact ; Set the name of the Windows TAP network interface device here dev-node MyTAP
396.
OpenWRT is described as a Linux distribution for embedded devices like WLAN router. There are certain types of WLAN routers who can be flashed to run OpenWRT. Depending on the available memory on your OpenWRT router you can run software like OpenVPN and you could for example build a small inexpensive branch office router with VPN connectivity to the central office. More info on OpenVPN on OpenWRT is <ulink url="http://wiki.openwrt.org/doc/howto/vpn.overview">here</ulink>. And here is the OpenWRT project's homepage: <ulink url="http://openwrt.org">http://openwrt.org</ulink>
2014-06-19
OpenWRT - это дистрибутив Linux для встраиваемых устройств, таких как WLAN-маршрутизаторы. Есть определенные типы WLAN-маршрутизаторов, которые могут быть прошиты для запуска OpenWRT. При наличии необходимой доступной памяти на вашем OpenWRT маршрутизаторе, вы можете запустить на нём программное обеспечение, такое как OpenVPN, и вы можете, например, сделать для небольшого филиала недорогой маршрутизатор чтобы соединяться по VPN с центральным офисом. Больше информации о OpenVPN на OpenWRT <ulink url="http://wiki.openwrt.org/doc/howto/vpn.overview">здесь</ulink>. А здесь домашняя страница проекта OpenWRT: <ulink url="http://openwrt.org">http://openwrt.org</ulink>
400.
Check out /etc/config/openvpn and put your client config in there. Copy certificates and keys to /etc/openvpn/
2014-06-16
Очистите /etc/config/openvpn и запишите конфигурацию своего клиента туда. Скопируйте сертификаты и ключи в /etc/openvpn/
410.
libvirt
2014-06-22
libvirt
426.
In the case of virtual machines a Graphical User Interface (GUI) is analogous to using a physical keyboard and mouse. Instead of installing a GUI the <application>virt-viewer</application> application can be used to connect to a virtual machine's console using <application>VNC</application>. See <xref linkend="libvirt-virt-viewer"/> for more information.
2014-06-22
В случае виртуальной машины графический интерфейс пользователя (GUI) аналогичным образом использует физические клавиатуру и мышь. Вместо установки GUI для подключения к консоли виртуальной машины с помощью <application>VNC</application> может использоваться приложение <application>virt-viewer</application>. Смотрите <xref linkend="libvirt-virt-viewer"/> для дополнительной информации.
441.
<emphasis>--noautoconsole:</emphasis> will not automatically connect to the virtual machine's console.
2014-06-22
<emphasis>--noautoconsole:</emphasis> не подключаться автоматически к консоли виртуальной машины.
512.
If configured to use a <emphasis>bridged</emphasis> network interface you can also setup <application>SSH</application> access to the virtual machine.
2014-06-16
Если в качестве сетевого интерфейса указано использование сетевого моста (<emphasis>bridged</emphasis>), вы можете также настроить <application>SSH</application>-доступ к виртуальной машине.
570.
Connect to the running VM
2014-06-16
Подключение к работающей ВМ
579.
Destroy your VM
2014-06-16
Уничтожение ВМ
597.
Installation and Configuration
2014-06-22
Установка и настройка
737.
Snapshots
2014-06-19
Снимки (Snapshots)
773.
LXC can be used in two distinct ways - privileged, by running the lxc commands as the root user; or unprivileged, by running the lxc commands as a non-root user. (The starting of unprivileged containers by the root user is possible, but not described here.) Unprivileged containers are more limited, for instance being unable to create device nodes or mount block-backed filesystems. However they are less dangerous to the host, as the root userid in the container is mapped to a non-root userid on the host.
2014-06-16
LXC может быть использован в двух различных вариантах - привилегированном, с запуском команд lxc от пользователя root; или непривилегированном, с запуском команд lxc от обычного пользователя ("не-root"). (Запуск непривилегированных контейнеров пользователем root возможен, но не описывается здесь.) Непривилегированные контейнеры более ограничены, например они не могут создавать файлы устройств или монтировать файловые системы на блочных устройствах. Однако они менее опасны для хост-компьютера, т.к. идентификатору пользователя root контейнера сопоставляется идентификатор обычного пользователя ("не-root") хост-компьютера.
778.
<placeholder-1/> or, abbreviated <placeholder-2/>
2014-06-19
<placeholder-1/> или сокращенно <placeholder-2/>
779.
This will interactively ask for a container root filesystem type to download - in particular the distribution, release, and architecture. To create the container non-interactively, you can specify these values on the command line:
2014-06-19
При этом будут интерактивно заданы вопросы о том, какой тип корневой файловой системы для контейнера нужно загрузить; в частности, какие требуются дистрибутив, версия и архитектура. Чтобы создать контейнер неинтерактивно, можно указать следующие значения в командной строке:
783.
You can now use <command>lxc-ls</command> to list containers, <command>lxc-info</command> to obtain detailed container information, <command>lxc-start</command> to start and <command>lxc-stop</command> to stop the container. <command>lxc-attach</command> and <command>lxc-console</command> allow you to enter a container, if ssh is not an option. <command>lxc-destroy</command> removes the container, including its rootfs. See the manual pages for more information on each command. An example session might look like:
2014-06-19
Теперь вы можете использовать <command>lxc-ls</command> для вывода списка контейнеров, <command>lxc-info</command> для получения подробной информации о контейнере, <command>lxc-start</command> для запуска и <command>lxc-stop</command> для остановки контейнера. <command>lxc-attach</command> и <command>lxc-console</command> позволяют вам управлять контейнером, если ssh по каким-то причинам не подходит. <command>lxc-destroy</command> удаляет контейнер, включая его корневую файловую систему. Обратитесь к страницам справочной информации для получения более подробного описания каждой команды. Примерная сессия может выглядеть так:
787.
If a user was created on an earlier release, it can be granted a range of ids using <command>usermod</command>, as follows:
2014-06-20
Если пользователь создавался в более раннем релизе Ubuntu, ему можно выдать диапазон идентификаторов с использованием команды <command>usermod</command>, следующим образом:
2014-06-20
Если пользователь создавался в более раннем релизе (чем 14.04 - прим. переводчика), ему можно выдать диапазон идентификаторов с использованием команды <command>usermod</command>, следующим образом:
811.
LXC startup
2014-06-19
Запуск LXC
812.
LXC does not have a long-running daemon. However it does have three upstart jobs.
2014-06-19
У LXC нет постоянно работающего демона. Однако у него есть три задания upstart.
814.
<filename>/etc/init/lxc.conf</filename> loads the lxc apparmor profiles and optionally starts any autostart containers. The autostart containers will be ignored if LXC_AUTO (true by default) is set to true in <filename>/etc/default/lxc</filename>. See the lxc-autostart manual page for more information on autostarted containers.
2014-06-19
<filename>/etc/init/lxc.conf</filename> загружает профили AppArmor для LXC и, опционально, запускает автозапускаемые контейнеры. Автозапускаемые контейнеры будут игнорироваться, если LXC_AUTO (по умолчанию true) установлено в true в файле <filename>/etc/default/lxc</filename>. См. справочную страницу lxc-autostart для получения дополнительной информации об автозапускаемых контейнерах.
817.
LXC supports several backing stores for container root filesystems. The default is a simple directory backing store, because it requires no prior host customization, so long as the underlying filesystem is large enough. It also requires no root privilege to create the backing store, so that it is seamless for unprivileged use. The rootfs for a privileged directory backed container is located (by default) under <filename>/var/lib/lxc/C1/rootfs</filename>, while the rootfs for an unprivileged container is under <filename>~/.local/share/lxc/C1/rootfs</filename>. If a custom lxcpath is specified in lxc.system.com, then the container rootfs will be under <filename>$lxcpath/C1/rootfs</filename>.
2014-06-22
LXC поддерживает несколько вариантов "хранилищ" (backing stores) для корневой файловой системы контейнера. По умолчанию используется обычная директория, т.к. данный вариант не требует предварительной настройки хоста, при условии, что его основная файловая система является достаточно большой. Кроме того, данный вариант не требует привилегий суперпользователя (root) для создания хранилища, и поэтому не вызывает затруднений при непривилегированном использовании. Корневая файловая система для привилигированного контейнера, хранящегося в директории, расположена (по умолчанию) в <filename>/var/lib/lxc/C1/rootfs</filename>, в то время как корневая файловая система для непривилегированного контейнера находится в <filename>~/.local/share/lxc/C1/rootfs</filename>. Если в lxc.system.com указано значение lxcpath, отличающееся от значения по умолчанию, тогда корневая файловая система контейнера будет расположена в <filename>$lxcpath/C1/rootfs</filename>.
819.
A btrfs backed container mostly looks like a directory backed container, with its root filesystem in the same location. However, the root filesystem comprises a subvolume, so that a snapshot clone is created using a subvolume snapshot.
2014-06-22
Контейнер, хранящийся на Btrfs, в основном выглядит также, как контейнер, хранящийся в директории, с его корневой файловой системой в том же месте. Тем не менее, корневая файловая система содержит подтом (subvolume), так что снимок-клон создается с использованием снимка подтома.
820.
The root filesystem for an LVM backed container can be any separate LV. The default VG name can be specified in lxc.conf. The filesystem type and size are configurable per-container using lxc-create.
2014-06-22
Корневой файловой системой для контейнера, хранящегося на LVM, может быть любой отдельный LV. Имя по умолчанию для VG может быть задано в lxc.conf. Тип файловой системы и её размер настраиваются для каждого контейнера с использованием lxc-create.
821.
The rootfs for a zfs backed container is a separate zfs filesystem, mounted under the traditional <filename>/var/lib/lxc/C1/rootfs</filename> location. The zfsroot can be specified at lxc-create, and a default can be specified in lxc.system.conf.
2014-06-22
Корневая файловая система контейнера, хранящегося на zfs, это отдельная файловая система zfs, примонтированная в "традиционное место" - <filename>/var/lib/lxc/C1/rootfs</filename>. zfsroot может быть указан в lxc-create, а значение по умолчанию может быть задано в lxc.system.conf.
822.
More information on creating containers with the various backing stores can be found in the lxc-create manual page.
2014-06-22
Более подробную информацию о создании контейнеров на базе различных "хранилищ" (backing stores) можно найти в справочном руководстве по lxc-create.
830.
LXC supports marking containers to be started at system boot. Prior to Ubuntu 14.04, this was done using symbolic links under the directory <filename>/etc/lxc/auto</filename>. Starting with Ubuntu 14.04, it is done through the container configuration files. An entry <screen> <command> lxc.start.auto = 1 lxc.start.delay = 5 </command> </screen> would mean that the container should be started at boot, and the system should wait 5 seconds before starting the next container. LXC also supports ordering and grouping of containers, as well as reboot and shutdown by autostart groups. See the manual pages for lxc-autostart and lxc.container.conf for more information.
2014-06-19
LXC позволяет отмечать контейнеры, которые нужно запускать при загрузке системы. До Ubuntu 14.04 это делалось с помощью символических ссылок из директории <filename>/etc/lxc/auto</filename>. Начиная с Ubuntu 14.04, это делается через файлы конфигурации контейнера. Запись <screen> <command> lxc.start.auto = 1 lxc.start.delay = 5 </command> </screen> означает, что контейнер должен запускаться при загрузке системы, и система должна подождать 5 секунд перед запуском следующего контейнера. LXC также поддерживает упорядочивание и группировку контейнеров, а также перезагрузку и завершение работы автоматически запускаемых групп. Обратитесь к страницам справочного руководства lxc-autostart и lxc.container.conf для получения дополнительной информации.
835.
Customizing container policies
2014-06-19
Настройка политик контейнера
891.
Container init verbosity
2014-06-19
Получение детальной информации от init контейнера
892.
If LXC completes the container startup, but the container init fails to complete (for instance, no login prompt is shown), it can be useful to request additional verbosity from the init process. For an upstart container, this might be: <screen> <command> sudo lxc-start -n C1 /sbin/init loglevel=debug </command> </screen> You can also start an entirely different program in place of init, for instance <screen> <command> sudo lxc-start -n C1 /bin/bash sudo lxc-start -n C1 /bin/sleep 100 sudo lxc-start -n C1 /bin/cat /proc/1/status </command> </screen>
2014-06-19
Если LXC выполнил запуск контейнера, но init в контейнере не отработал (например, не появилось приглашение для входа в систему), может быть полезно запросить дополнительную информацию у процесса init. Для контейнера upstart это может быть: <screen> <command> sudo lxc-start -n C1 /sbin/init loglevel=debug </command> </screen> Вы также можете запустить любую другую программу в качестве init, например <screen> <command> sudo lxc-start -n C1 /bin/bash sudo lxc-start -n C1 /bin/sleep 100 sudo lxc-start -n C1 /bin/cat /proc/1/status </command> </screen>