СХД

Материал из RSU WiKi
Перейти к: навигация, поиск
Pen.pngЭта статья находится в процессе написания.
Если вы считаете, что её стоило бы доработать как можно быстрее, пожалуйста, скажите об этом.
Tower of babel.png外國 language!
В статье используется несколько языков. Необходимо использовать один. Совсем неплохо, если это будет русский.
СХД NetApp FAS2020
Сеть хранения данных, СХД (Storage Area Network, SAN) — представляет собой архитектурное решение для подключения внешних устройств хранения данных, таких как дисковые массивы, ленточные библиотеки, оптические приводы к серверам таким образом, чтобы операционная система распознала подключённые ресурсы как локальные. Несмотря на то, что стоимость и сложность таких систем постоянно падают, по состоянию на 2007 год сети хранения данных остаются редкостью за пределами больших предприятий.

SAN характеризуются предоставлением так называемых сетевых блочных устройств (обычно посредством протоколов Fibre Channel, iSCSI или AoE), в то время как сетевые хранилища данных (Network Attached Storage, NAS) нацелены на предоставление доступа к хранящимся на их файловой системе данным при помощи сетевой файловой системы (такой как NFS, SMB/CIFS, или AppleTalk).

Следует обратить внимание, что категорическое разделение вида «SAN — это только сетевые диски, NAS — это только сетевая файловая система» является искусственным: с появлением iSCSI началось взаимное проникновение технологий с целью повышения гибкости и удобства их применения. Например, в 2003 году NetApp уже предоставляли iSCSI на своих NAS, а EMC и HDS — наоборот, предлагали NAS-фронтэнды для своих SAN-массивов[1].

Содержание

NetApp FAS20240-4

Контроллеры настраиваются по RS-232. Web-интерфейс подключается после установки NetApp OnCommand System Manager.

Как создать новый Volume?

vol create ds02fc1 aggr0 6400g

Flash Pool Design and Implementation Guide

Как изменить размер зарезервированного под snapshot место?

snap reserve ds02fc1 0

https://library.netapp.com/ecmdocs/ECMP1196991/html/GUID-FA5485DA-96ED-4746-951C-E14D26AE773A.html

Как включить дедупликацию?

sis on /vol/ds02fc1

http://blog.scottlowe.org/2008/03/31/quick-guide-to-setting-up-netapp-deduplication/

Как дедуплицировать уже существующие данные?

sis start -s /vol/ds02fc1

Как создать initiator group?

igroup create -f -t vmware x3650m3 20:00:00:24:ff:2e:30:e5 20:00:00:24:ff:2e:30:e4 21:00:00:24:ff:2e:30:e5 21:00:00:24:ff:2e:30:e4
igroup create -f -t vmware x3850x5 21:00:00:24:ff:4a:d0:ed 21:00:00:24:ff:4a:d0:ec 20:00:00:24:ff:4a:d0:ed 20:00:00:24:ff:4a:d0:ec

https://library.netapp.com/ecmdocs/ECMP1196995/html/GUID-DA2BE2F6-B5ED-466E-BA28-CD8125731C22.html

Как создать Lun?

lun create -s 6374g -t vmware /vol/ds02fc1/lun0fc
lun map /vol/ds02fc1/lun0fc x3650m3

https://library.netapp.com/ecmdocs/ECMP1196995/html/GUID-ABD4D006-4643-407C-B73F-3B0B5ACC8B27.html

Как иницивлизировать FCP адаптеры? 1) Выключить:

storage disable adapter 1a
storage disable adapter 1b

2) Назначить роли

ucadmin modify -t target 1a
ucadmin modify -t target 1b

3) Перезапустить контроллер и запустить службы FCP

reboot
fcp start

NetApp FAS2020

Высокопроизводительные и надежные масштабируемые системы NetApp FAS (Fabric Attached Storage - сетевые устройства дисковой памяти), упрощающие процесс управления данными, удовлетворят требованиям предприятия любой величины - от самых крупных мировых компаний до предприятий среднего бизнеса. Процедуры установки, настройки и администрирования этих систем максимально упрощены.

Благодаря гибкой и стабильной ОС Data ONTAP на базе микроядра возможно одновременное и комбинированное использование систем в средах с протоколами FC SAN, FCoE, iSCSI и NAS. Кроме того, помимо систем Windows, UNIX и Linux поддерживается работа с веб-контентом [2].

Согласно Software Setup Guide система отправляется к заказчику с предварительной настройкой:

  • установленны последние версии bootloader, firmware и обоих BIOS
  • установлены приобретенные лицензии
  • на системе создан aggregate и FlexVol root volume (наш случай), или traditional root volume, в зависимости от договора

Начальная инициализация

Мастер начальной конфигурации позволяет настроить сетевые интерфейсы e0a, e0b и т. д., интерфейс управления e0M (обозначается гаеччным клю), DNS сервера и зону, основной шлюз им т. п.

Через интерфейс RS-232 требуется любой клиент, похожий на Hyper-terminal, minicom и д. р. Мастер начальной конфигурации будет запущен автоматически.

Через e0m-интерфейс:

*> system console
*> setup

BMC

Меню загрузки

1. Normal boot
2. Boot with out /etc/rc
3. Change password
4. Инициализация всех присвоеных дисков
4a. То же, что и п. 4, но с созданием FlexVol
5. Maintenance mode

Основные команды

Доступ к расширенноый меню осуществляется следующей командой:

*>priv set [-q] [admin | advanced]
  • admin sets the privilege level to administrative. The default privilege level for root login.
  • advanced sets the privilege level to advanced.
  • -q enables quiet mode. It suppresses the warning that normally appears when you set the privilege level to advanced.

Обновление Data ONTAP

Locate and record the system hostname, system ID, or serial number of your system by entering the following command at the command line:

*>sysconfig

You can check the available Data ONTAP versions on the NOW site to determine if your system supports this Data ONTAP release. Steps:

  1. Use a Web browser to go to the NOW Web site.
  2. Click Service & Support.
  3. Click Download Software.
  4. In the Select Platform list box in the Data ONTAP product row, select your storage system type.
  5. Click Go.

You see a list of the versions of Data ONTAP supported by your storage system platform. If this release is listed, you can upgrade to it.

  1. Copy the software image (for example, 73_setup_i.exe) from the NOW site or another system to the directory on the HTTP server from which the file will be served.

What disk types Data ONTAP supports

Data ONTAP supports five disk types:

  • Fibre Channel (FC),
  • Advanced Technology Attachment (ATA),
  • Serial Advanced Technology Attachment (SATA),
  • Serial Attached SCSI (SAS), and Bridged SAS (BSAS).

RAID disk types

RAID disk type Description
Data disk Holds data stored on behalf of clients within RAID groups (and any data generated about the state of the storage system as a result of a malfunction).
Hot spare disk assigned to an aggregate but is assigned to a system functions as a hot spare disk.
Parity disk Stores data reconstruction information within RAID groups.
dParity disk Stores double-parity information within RAID groups, if RAID-DP is enabled.

Aggregates

Агрегаты (Aggregates) различаются между собой типом RAID-массива:

RAID type Description
RAID-dp (по умолчанию) Требует минимум 3 диска: 1 x Data, 1 x Parity и 1 x dParity.
RAID 4 Строится на минимум 2 дисках: 1 x Data и 1 x Parity. Рекомендуется к использованию на малых системах.
RAID 0 Используется при построении агрегата на жестких дисках сторонних производителей.

Основные команды для работы с агрегатами:

В RAID 4 агрегат можно преобразовать из RAID-dp командой:

*>aggr options aggr_name raidtype

raidtype - [raid_dp | raid4]

Recommendations

  • For small storage systems where cost concerns outweigh resiliency, a FlexVol based root volume on a regular aggregate might be more appropriate.
  • Avoid storing user data in the root volume, regardless of the type of volume used for the root volume.
  • Data ONTAP supports two levels of RAID protection, RAID4 and RAID-DP. RAID4 requires a minimum of two disks and can protect against single-disk failures. RAID-DP requires a minimum of three disks and can protect against double-disk failures. The root volume can exist as the traditional stand-alone two-disk volume (RAID4) or three-disk volume (RAID-DP). Alternatively, the root volume can exist as a FlexVol volume that is part of a larger hosting aggregate.
  • If a FlexVol volume is used for the root volume, file system consistency checks and recovery operations could take longer to finish than with the two- or three-disk traditional root volume. FlexVol recovery commands work at the aggregate level, so all of the aggregate's disks are targeted by the operation. One way to mitigate this effect is to use a smaller aggregate with only a few disks to house the FlexVol volume containing the root volume.

Minimum root FlexVol volume size for FAS2020 is 10 GB.

Network Appliance and VMware ESX Server 3.0 Storage Best Practice

Существует 3 способа подключения системы хранения данных:

  • VMFS Data Store on Fibre Channel or iSCSI
  • RAW Device Mapping over Fibre Channel or iSCSI (RDM). В такой конфигурации на СХД создается агрегат, на нем - FlexVol для данных, во FlexVol`е создаются LUN`ы, соответствующие жестким дискам каждой из витруальных машин и 1 LUN для ESX Server для хранения служебной информации. Все LUN`ы подключеются к ESX Server и его средствами пробрасываются на виртуальные машины.
  • Virtual Disks over NFS

На момент написания статьи каждый VMware ESX Server поддерживает не более 256 LUN`ов.

Storage Naming Conventions

В нашем случае подключение к ESX осуществляется посредствам Fibre Channel. Для конфигурации с ESX 4.1 и адаптером Brocade HBA 825 подходит версия 5.2 NetApp FCP ESX Host Utilities. Совместимость компонентов можно проверить на сайте производителя:

http://www.netapp.com/us/technology/interop.html

Ссылка на скачивание утилит:

https://now.netapp.com/NOW/download/software/sanhost_esx/5.2/

Cluster Takeover

Network takeover

Всегда, если предусмотрена возможность резервирования, следует настроить active/active конфигурацию на управляющей полке. Это позволит сохранить работоспособность при сбоях отдельных элементов системы (БП, Контроллер и др.) или вести обновление ПО Data OnTap, прошивки полки или BMC без остановки работы СХД.

В конфигурации с 2 контроллерами, на каждом из которых по 2 Ethernet, 2 Fibre Channel и 1 Management интерфейсу, подхват ресурсов происходит отдельно для каждого типа интерфейсов.

Ethernet

Настройка сетевых интерфейсов входит в состав мастера настройки контроллера, который запускается при первом входе на контроллер, либо командой см. раздел консольные команды.

В нашей конфигурации интерфейсы имеют следующие адреса:

Интерфейс Адрес контроллера a Адрес контроллера b
eoa 192.0.2.0.129 192.0.2.0.132
e0b 192.0.2.0.130 192.0.2.0.133
e0m 192.0.2.0.131 192.0.2.0.135

При настройке у интерфейсов e0a обоих контроллеров указано не подхватывать адрес партнера при неполадках. У интерфейсов e0b - наоборот подхватывать адрес партнера. При сбое контроллера b интерфейс e0b контроллера a получает адрес интерфейса e0a контроллера b. При сбое контроллера a интерфейс e0b контроллера b получает адрес интерфейса e0a контроллера a.

Management Software

NetApp System Manager

Скачиваем: https://now.netapp.com/NOW/cgi-bin/software/?product=System+Manager&platform=Windows

Работает при выключенном файрволле и касперском.

CIFS

Для того чтобы стала доступна вкладка расширенных прав безопасности, нужно настроить cifs в режиме ntfs only.

cifs setup
...
Would you like to reconfigure this filer to be a multiprotocol filer? [n] y

Snapshot Management

Смотрим наличие существующих снапшотов:

snap list

Мгновенный откат на существующий снапшот делаем так:

snap restore -t vol -s snapshot_name volume_name

Работа с разделами (volumes)

Переименование раздела (без простоя):

vol rename <vol_name> <new_name>

Смена root-раздела

Проверяем, включен ли сервис ndmpd, и, если нет, запускаем его:

ndmpd on

Копируем старый рутовый раздел на новый:

ndmpcopy /vol/old_root /vol/new_root

Помечаем новый раздел, как root:

vol options new_root root

Перезагружаем контроллер.

Если (КОГДА) после перезагрузки отваливается доступ к FilerView по https, выполняем следущие действия:

securadmin disable ssl
secureadmin setup -f ssl (отвечаем на все вопросы)
secureadmin enable ssl

Deduplication

Проверяем статус:

sis status /vol/<volname>

Если служба неактивна по причине отсутствия лицензии, идем на http://now.netapp.com/, смотрим лицензию на A-SIS и вбиваем ее в СХД:

license add <Code for Deduplication>

Включаем дедупликацию для интересующих томов:

sis on /vol/<volname>

Если на томе уже записаны данные, запускаем сканирование:

sis start -s /vol/<volname>

Эффективность работы делупликации можно оценить при помощи команды

df -sg

NTP

Настраиваем одинаково на обеих нодах кластера [3]:

ontap1> options timed
timed.enable off
timed.log off
timed.max_skew 30m
timed.min_skew 0
timed.proto ntp
timed.sched hourly
timed.servers
timed.window 0s

ontap1> options timed.servers <ntp server>
ontap1> options timed.enable on 

SNMP

Как загрузить NetApp MIB: http://now.netapp.com/NOW/download/tools/mib В openSuSE/SLE MIB размещается в папку /usr/share/snmp/mibs Перед размещением файл .mib надо переименовать, как сказано в его первой незакомментированной строке:

-- Add enclXXXpart
-- =======================================================  --

NETAPP-MIB DEFINITIONS ::= BEGIN

т. е. NETAPP-MIB.txt

Для выборки определенного параметра с использованием NETAPP-MIB.txt используйте следующие команды:

snmpwalk -v 1 -c public -m "NETAPP-MIB" example.com 1.3.6.1.4.1.789.1.7.3.1.1.1.0
snmpget -v 1 -c public -m "NETAPP-MIB" example.com 1.3.6.1.4.1.789.1.7.3.1.1.1.0

Для выборки всех параметров, указанных в NETAPP-MIB.txt

snmpwalk -v 1 -c public -m "NETAPP-MIB" example.com . > example.com

Примеры параметров. Коментарии к ним можно посмотреть в NETAPP-MIB.txt.

CacheAge : 1.3.6.1.4.1.789.1.2.2.23.0
cifsops : 1.3.6.1.4.1.789.1.7.3.1.1.1.0
cifsopsHigh : 1.3.6.1.4.1.789.1.2.2.7.0
cifsopsLow : 1.3.6.1.4.1.789.1.2.2.8.0
cpuBusyTimePerCent : 1.3.6.1.4.1.789.1.2.1.3.0
diskFailedCount : 1.3.6.1.4.1.789.1.6.4.7.0
envOverTemperature : 1.3.6.1.4.1.789.1.2.4.1.0
failedFanCount : 1.3.6.1.4.1.789.1.2.4.2.0
failedPowerSupply : 1.3.6.1.4.1.789.1.2.4.4.0
fcHighops : 1.3.6.1.4.1.789.1.17.13.0
fcopslow : 1.3.6.1.4.1.789.1.17.14.0
fcpHighReadBytes : 1.3.6.1.4.1.789.1.17.4.0
fcpHighWriteBytes : 1.3.6.1.4.1.789.1.17.6.0
fcpLowReadBytes : 1.3.6.1.4.1.789.1.17.3.0
fcpLowWriteBytes : 1.3.6.1.4.1.789.1.17.5.0
lunHighErrors : 1.3.6.1.4.1.789.1.17.15.2.1.15.1
lunHighOps : 1.3.6.1.4.1.789.1.17.15.2.1.9.1
lunHighOtherOps : 1.3.6.1.4.1.789.1.17.15.2.1.26.1
lunHighReadBytes : 1.3.6.1.4.1.789.1.17.15.2.1.11.1
lunHighReadOps : 1.3.6.1.4.1.789.1.17.15.2.1.22.1
lunHighWriteBytes : 1.3.6.1.4.1.789.1.17.15.2.1.13.1
lunHighWriteOps : 1.3.6.1.4.1.789.1.17.15.2.1.24.1
lunLowErrors : 1.3.6.1.4.1.789.1.17.15.2.1.16.1
lunLowOps : 1.3.6.1.4.1.789.1.17.15.2.1.10.1
lunLowOtherOps : 1.3.6.1.4.1.789.1.17.15.2.1.27.1
lunLowReadBytes : 1.3.6.1.4.1.789.1.17.15.2.1.12.1
lunLowReadOps : 1.3.6.1.4.1.789.1.17.15.2.1.23.1
lunLowWriteBytes : 1.3.6.1.4.1.789.1.17.15.2.1.14.1
lunLowWriteOps : 1.3.6.1.4.1.789.1.17.15.2.1.25.1
miscHighDiskReadBytes : 1.3.6.1.4.1.789.1.2.2.15.0
miscLowDiskReadBytes : 1.3.6.1.4.1.789.1.2.2.16.0
nfsops : 1.3.6.1.4.1.789.1.2.2.1.0
nfsopsHigh : 1.3.6.1.4.1.789.1.2.2.5.0
nfsopsLow : 1.3.6.1.4.1.789.1.2.2.6.0
sysUpTime : 1.3.6.1.2.1.1.3.0

DS14MK2-AT FCX

Для подключения полки адаптеры FC на модуле СХД должны быть настроены в режиме initiator (адаптеры полки по умолчанию настроены на target) Для этого пишем:

fcp config adapter down
fcadmin config -t adapter initiator

После этого перезагружаемся:

reboot

ESX 4.1

/opt/netapp/santools/config_hba --configure

Антивирусная защита СХД NetApp

Специализированный антивирус

NetApp Antivirus Scanning Best Practices Guide:

Запрет создания определенных типов файлов

Основная идея состоит в том, что далеко не для всех шар есть жизненная необходимость обмена исполняемыми файлами. Убрав возможность создания исполняемых файлов на данных ресурсах мы на 80% сократим объем распространения вирусов.

Enabling native file blocking

You can enable file screening to use native file blocking. Steps

Create a file policy.

Example

To create a policy to prevent CIFS users from placing MP3 files on the storage system, enter the following commands:

fpolicy create virusblocker screen
fpolicy ext inc set virusblocker exe,lnk,scr
fpolicy options virusblocker required on
fpolicy volume include set virusblocker volume_name1,volume_name2,volume_name3
fpolicy monitor set virusblocker -p cifs,nfs create,rename
fpolicy enable virusblocker -f

Set the operations and protocols monitored by the policy using the fpolicy monitor command.

Example

Specify the create option to prevent creation of MP3 files. In addition, to ensure that an MP3 file is not copied onto the storage system with a different extension and renamed, also specify the rename option. Enter the following command:

fpolicy monitor set mp3blocker -p cifs,nfs create,rename

For more information about the fpolicy monitor command and a complete list of file operations for which the policy can receive notifications, see the fpolicy(1) man page.

Ensure that the new policy is enabled.

Example

fpolicy enable mp3blocker -f

When a user tries to create or rename a file with an MP3 extension, the operation fails. They might see a message indicating that the operation cannot be completed or that access is denied.

Посмотреть на какие Volumes в настоящее время применена политика можно командой:

fpolicy vol inc show <VolName>

TroubleShooting

Netapp Cluster-Failover Giveback

If one of the Netapp Filers fails for any reason, the other head will take over the failed head's disks and network connections. Once the failed head has recovered and is booting, it will pause and wait for the other head to give back its resources. The operational head must be told to give back the resouces, after which the peers will sync up and take over their normal operations [4].

Determining if the heads are in a failover state

Systems should recieve an e-mail from the remaining head when it takes over from the failed head. Depending on the configuration, the subject or body will say:

CLUSTER TAKEOVER COMPLETE AUTOMATIC on netapp01

This means that netapp01 is up and has taken over operations for its peer.

If you SSH in to netapp01, the prompt should read:

netapp01(takeover)>

To indicate that it has taken over the partner.

You can gather more information about the cluster failover status with the following command:

netapp01(takeover)> cf monitor
 current time: 28Aug2006 10:28:48
 TAKEOVER 00:49:01, partner 'netapp02', cluster monitor enabled

As you can see, it is in a TAKEOVER state for parner netapp02, and has been for just over 49 minutes.

Steps to perform before requesting a giveback

Before requesting a giveback from the operational head, you should be sure that the failed head is ready to come back up. You can do this by accessing the downed node's console via serial conneciton or RLM. The console should be blank. Pressing 'Enter' should yeild the following text:

Waiting for giveback...(Press Ctrl-C to abort wait)

Do NOT press Ctrl-C, as this will leave the host in a very confused state.

Performing a cluster-failover giveback

On the operational head's console, run the following command:

netapp01(takeover)> cf giveback

After a short delay, both heads should start spewing information and sending alerts as the downed head boots, connects to its disks, and resumes network services.

To confirm that the giveback has been completed, run the following command:

netapp01> cf monitor
 current time: 28Aug2006 11:38:42
 UP 00:54:22, partner 'netapp02', cluster monitor enabled
 VIA Interconnect is up (link 0 up, link 1 up), takeover capability on-line
 partner update TAKEOVER_ENABLED (28Aug2006 11:38:41)

This indicates that the partner is up, and has been for just over 54 minutes. This head is ready to takeover the partner again, if need be.

Confirming a return to service

The once-downed head should have sent out several messages to Systems to indicate that it has returned to service, and the takeover head should have also sent a message indicating that the giveback is complete. If a message from the once-down head was not recieved, it is possible that something is not yet right - probably the network configuration.

Here are a few checks to run to make sure that the head is reachable:

  • Ping the head's IP from another host
  • Ping another host's IP from the head
  • Ping another host's name from the head
  • Ping google.com from the head

If any of the above checks fail, it is probable that the network did not come back up properly. There are few possibilities.

Network configuration error

It is possible that the head's network configuration was not restored properly when it went down. The following commands should fully reconfigure networking on the head, and should get it back online if the failure is due to a configuration problem.

ifconfig vif0a down
ifconfig e0a down
ifconfig e0b down
ifconfig e0c down
ifconfig e0d down
vif vif0a destroy
vif create multi vif0a -b rr e0a e0b e0c e0d
ifconfig vif0a 172.17.8.64 up netmask 255.255.0.0 broadcast 172.17.255.255 mtusize 9000 trusted -wins partner vif0a
route add default 172.17.0.1 1
routed on
options dns.domainname nic.local

Switch LACP trunk lockout

If the head has been down for a while, it is possible that the switch has given up on the LACP trunk that aggregates the head's NICs, and has put the ports in a blocking state.

To determine if this has happened, telnet into the switch and run the following command:

cs-backbone.nic.local# show lacp
                           LACP

   PORT   LACP      TRUNK     PORT      LACP      LACP
   NUMB   ENABLED   GROUP     STATUS    PARTNER   STATUS
   ----   -------   -------   -------   -------   -------
   1      Active    Trk1      Blocked   No        Failure
   2      Active    Trk1      Blocked   No        Failure
   3      Active    Trk1      Blocked   No        Failure
   4      Active    Trk1      Blocked   No        Failure
   5      Active    Trk2      Up        No        Success
   6      Active    Trk2      Up        No        Success
   7      Active    Trk2      Up        No        Success
   8      Active    Trk2      Up        No        Success

Notice that all of the ports in the trunk group are marked as Blocked. This means that the switch is not allowing traffic through these ports.

There are a few ways to restore port access:

  • Reboot the switch
  • Reboot the head
  • Reconfigure the trunk

The last way is the best, since it does not require any further disruptions. Enter the following commands on the switch console:

conf t
no trunk 1-4
trunk 1-4 Trk1 LACP
exit

Note: The above commands will fix a trunk failure for Netapp02 on ports 1-4 and trunk Trk1. To fix the Netapp01 trunk, specify ports 5-8 and trunk Trk2.

LUN has run out of space

Это место, резервируемое на том (flexvol), оставленное на нем тот случай, когда содержащийся на томе LUN будет активно переписываться, и понадобятся дополнительные блоки, для того, чтобы разместить эти изменения, в том случае, если прежние блоки по той или иной причине “заперты” и не высвобождаются. Например в случае взятия снэпшота.

1) лог netapp

Filer > Syslog Messages
LUN '/vol/<volume_name>/<lun_name>' has run out of space.

2) состояние volume <volume_name>

Volumes > Manage > <volume_name>
Used Capacity:		922 GB (было 1TB)
% Used:		90% (было 100%)
Total Capacity:	1 TB
Total Size:		1 TB

3) отчет системы о состоянии volumes и пр

Filer > Report
До
/vol/fc_slow_2/     2222456832 2222456832          0     100%  /vol/fc_slow_2/
/vol/fc_slow_2/.snapshot  246939648    3488020  243451628       1%  /vol/fc_slow_2/.snapshot
После
/vol/fc_slow/       1073741824  966377636  107364188      90%  /vol/fc_slow/
/vol/fc_slow/.snapshot          0          0          0     ---%  /vol/fc_slow/.snapshot

4) отключение снапшотов на volume <volume_name> для освобождения места из зарезервированного системой. Подключитесь к командной строке контроллера этого volume по ssh и отключите снапшоты командами:

vol options <volume_name> fractional_reserve 0
snap reserve <volume_name> 0
vol options volumeName fractional_reserve value 
  • volumeName is the name of the volume you want to modify this setting. All the LUNs and only the LUNs (not CIFS shares or NFS Exports will be affected).
  • value should be between 0 and 100 which represent the % of the LUN or LUNs sizes to be reserved.

Remember Fractional Reserve option only affects to the LUNs within the volume.

5) включение Lun <lun_name>

LUNs > tManage > <lun_name> > [Online]

6) миграция виртуальных машин с одного хранилища на другое

  1. Выберите виртуальную машину
  2. В контекстном меню выберите пункт Migrate
  3. В качестве типа миграции выберите Change datastore
  4. Выберите доступный datastore и завершите работу мастера миграции

7) включение снапшотов

vol options <volume_name> fractional_reserve 10
snap reserve <volume_name> 10
Attention.pngВНИМАНИЕ!
для смены состояния Lun на хосте esxi перезагрузите хост esxi

8) Для перезагрузки хоста esxi выберите <хост_esxi>, в контекстном меню выберите пункт Reboot.

Fix: FCP Partner Path Misconfigured

Tower of babel.png外國 language!
В статье используется несколько языков. Необходимо использовать один. Совсем неплохо, если это будет русский.

Статья Fix: FCP Partner Path Misconfigured[5]

Примечания

  1. iSCSI’s Effect on the Eternal NAS vs. SAN Debate
  2. http://necomtrade.ru/netapp_fas
  3. NetApp - System Administration
  4. Netapp Cluster-Failover Giveback
  5. http://www.getshifting.com/wiki/fcppartnerpathmisconfigured

См. также

Ссылки

Личные инструменты
Пространства имён

Варианты
Действия
Навигация
Инструменты