Просмотр сообщений

В этом разделе можно просмотреть все сообщения, сделанные этим пользователем.


Сообщения - 2site

Страницы: [1] 2 3 ... 13
1
Hardware / AMD Epyc как достичь Max Boost Clock???
« : 07 августа 2019, 14:26:37 »
Никто совсем совсем не работает с AMD EPYC?

2
Hardware / AMD Epyc как достичь Max Boost Clock???
« : 06 августа 2019, 09:27:20 »
Всем хелоу. Есть проблема, не знаю как добиться максимальной производительности от процессора AMD Epyc 7351P. В спецификациях заявлено, что Max Boost Clock равна 2.9GHz, но на деле выше чем 2.4 не поднимается. Уже крутил вертел настройки в биосе по разному, но становиться только хуже чем при том что на приложенных скриннах. С интелом таких проблем нет, главное включить режим енергосбережения и турбо буст, с АМД делаю тоже самое но нифига. Есть у кого-то опыт работы с AMD Epyc, как заставить их работать на полную?


3
Hardware / Выбор сетевых адаптеров для S2D
« : 06 августа 2019, 09:20:18 »
Выбрал Mellanox MCX4121A-XCAT. Все стало без проблем.

4
Вообщем проблема была в нечетности дисков. Решилось отключением по одному диску с каждого нода.

5
Испытываю трудности с созданием S2D и не могу понять с чем они связаны. Команда:
Test-Cluster –Node "Hyperv1","Hyperv2" –Include "Storage Spaces Direct", "Inventory", "Network", "System Configuration"
выводит предупреждение только по разделу Storage Spaces Direct указываю, что вместо 2 NVMe дисков на хост используется только 1, но тут же ниже пишет что все предупреждения не препятствуют в созданию кластера. Я пока физически не могу устранить это предупреждение и не думаю, что из-за него я не могу создать кластер. Прилаживаю скрины результата теста (если нужно могу прикрепить полный отчет). Ну и сама ошибка возникает на этапе конфигурации S2D на 27%, лог хода конфигурации с последующей ошибкой ниже:
PS C:\Windows\system32>> Enable-ClusterS2D -Verbose
VERBOSE: 2019/07/20-19:31:46.519 Ensuring that all nodes support S2D
VERBOSE: 2019/07/20-19:31:46.519 Querying storage information
VERBOSE: 2019/07/20-19:31:48.424 Sorted disk types present (fast to slow): NVMe,SSD,HDD. Number of types present: 3
VERBOSE: 2019/07/20-19:31:48.424 Checking that nodes support the desired cache state
VERBOSE: 2019/07/20-19:31:48.424 Checking that all disks support the desired cache state

Confirm
Are you sure you want to perform this action?
Performing operation 'Enable Cluster Storage Spaces Direct' on Target 'hpvcl'.
[Y] Yes  [A] Yes to All  [N] No  [L] No to All  [S] Suspend  [?] Help (default is "Y"): Y
VERBOSE: 2019/07/20-19:31:52.909 Creating health resource
VERBOSE: 2019/07/20-19:31:53.346 Setting cluster property
VERBOSE: 2019/07/20-19:31:53.346 Setting default fault domain awareness on clustered storage subsystem
VERBOSE: 2019/07/20-19:31:53.408 Waiting until physical disks are claimed
VERBOSE: 2019/07/20-19:31:56.429 Number of claimed disks on node 'hyperv1': 0/6
VERBOSE: 2019/07/20-19:31:59.445 Number of claimed disks on node 'hyperv2': 4/6
VERBOSE: 2019/07/20-19:32:02.466 Number of claimed disks on node 'hyperv1': 2/6
VERBOSE: 2019/07/20-19:32:08.505 Number of claimed disks on node 'hyperv1': 4/6
VERBOSE: 2019/07/20-19:32:11.521 Number of claimed disks on node 'hyperv2': 5/6
VERBOSE: 2019/07/20-19:32:17.556 Number of claimed disks on node 'hyperv2': 6/6
VERBOSE: 2019/07/20-19:32:20.576 Number of claimed disks on node 'hyperv1': 6/6
VERBOSE: 2019/07/20-19:32:20.591 Node 'hyperv1': Waiting until cache reaches desired state (HDD:'ReadWrite'
SSD:'WriteOnly')
VERBOSE: 2019/07/20-19:32:20.607 SBL disks initialized in cache on node 'hyperv1': 6 (6 on all nodes)
VERBOSE: 2019/07/20-19:32:20.607 Cache reached desired state on hyperv1
VERBOSE: 2019/07/20-19:32:21.623 Node 'hyperv2': Waiting until cache reaches desired state (HDD:'ReadWrite'
SSD:'WriteOnly')
VERBOSE: 2019/07/20-19:32:21.623 SBL disks initialized in cache on node 'hyperv2': 6 (12 on all nodes)
VERBOSE: 2019/07/20-19:32:21.623 Cache reached desired state on hyperv2
VERBOSE: 2019/07/20-19:32:22.638 Waiting until SBL disks are surfaced
VERBOSE: 2019/07/20-19:32:25.670 Disks surfaced on node 'hyperv1': 11/12
VERBOSE: 2019/07/20-19:32:25.685 Disks surfaced on node 'hyperv2': 11/12
VERBOSE: 2019/07/20-20:33:26.726 Starting health providers
Enable-ClusterS2D : Operation did not complete in time while 'Waiting until SBL disks are surfaced'. Run cluster valida
tion, including the Storage Spaces Direct tests, to verify the configuration
At line:1 char:1
+ Enable-ClusterS2D -Verbose
+ ~~~~~~~~~~~~~~~~~~~~~~~~~~
    + CategoryInfo          : OperationTimeout: (MSCluster_StorageSpacesDirect:root/MSCLUSTER/...ageSpacesDirect) [Ena
   ble-ClusterStorageSpacesDirect], CimException
    + FullyQualifiedErrorId : HRESULT 0x800705b4,Enable-ClusterStorageSpacesDirect

Enable-ClusterS2D : Failed to run CIM method EnableStorageSpacesDirect on the root/MSCLUSTER/MSCluster_StorageSpacesDir
ect CIM object.  The CIM method returned the following error code: 1460
At line:1 char:1
+ Enable-ClusterS2D -Verbose
+ ~~~~~~~~~~~~~~~~~~~~~~~~~~
    + CategoryInfo          : InvalidResult: (MSCluster_StorageSpacesDirect:String) [Enable-ClusterStorageSpacesDirect
   ], CimJobException
    + FullyQualifiedErrorId : CimJob_EnableStorageSpacesDirect_1460,Enable-ClusterStorageSpacesDirect

PS C:\Windows\system32>>
Есть ли у кого-то какие-то идеи как это исправить? В интернете особо не нахожу инфы по этой ошибке, в в логах системы тоже ниче нет?


Updated: 25 July 2019, 09:59:52

Вот только сейчас появилось предположение, что у меня в сторадже не четное количество дисков. Сегодня попробую создать кластер с четным количеством.

6
Здравствуйте дорогие форумчане. Хочу настроить S2D из 2 серверов и не могу определиться с выбором сетевых карт которые хорошо работали бы с этой технологией. Ранее никогда не настраивал S2D для этого хотел серьезно подойти к покупке оборудования для этой технологии. Из того что удалось выяснить главным критерием для качественной работы S2D является поддержка протокола RDMA в сетевой карте для этого мой выбор остановился на Emulex OCe14104-NX, где цена подозрительно низкая и количество поддерживаемых плюшек достаточно велико. Концепция такая, в каждом из двух серверов будет установлена данная сетевая карта, 3 порта из которых будут выделены для непосредственного подключения между серверами оставшийся порт в свич с поддержкой sfp+. Мне нужен совет знающих людей, подойдут ли данные адаптеры к S2D, можно ли будет агрегировать 3 порта из 4-х для увеличение скорости и отказоустойчивости, какие кабеля для этих адаптеров лучше покупать?
Буду благодарен за любую инфу которая вероятно поможет прояснить мне эти вопросы.


Updated: 20 May 2019, 14:08:53

Как альтернативу рассматриваю Mellanox MCX312C-XCCT, но она подороже будет :(

7
Windows / Помогите написать скрипт Powershell
« : 22 октября 2018, 17:08:12 »
Есть задача архивировать все записи разговоров сотрудников и сделать это с такой вот структурой:
Records\2017\
Records\2018\[вн номер телефона]\дата.zip
Records\2018\203\20181016.zip
Records\2018\203\20181017.zip
и так далее.

Ранее писался скрипт который через powershell собирал искал все записи .wav за сегодняшний день и архивировал их в zip на указанный диск. Проблема возникала когда выяснялось что скрипт какое-то время не работал и тогда происходит небольшой гемор с архивацией этих рекордов. Сейчас же концепцию нужно поменять. Нужно искать все записи wav и найденные группировать по дню создания и создавать соответсвующие архивы по дню чтобы добиться структуры которую я привел выше.

$Year = (Get-Date -Format "yyyy")
$sciezka = "D:\Nagrania"
$TARGETDIR = "\\telerate\Archiwum_rozmów_pracowników$\Nagrania\$Year"
$Date = (Get-Date -format "yyyy-MM-dd")
$logdate = (Get-Date -format "dd-MM-yyyy")
$logpath = $TARGETDIR + "\" + $logdate + "log.txt"
$errorlog =""
## tworzenie folderu w ściezce jeżeli go nie ma
if( -Not (Test-Path -Path $TARGETDIR ) ) {
New-Item -ItemType directory -Path $TARGETDIR
}
## kopiowanie danych sprzed 1 dnia
$aSrc = dir $sciezka | ?{$_.PSISContainer}
foreach ($src in $aSrc) {
$apliki = Get-ChildItem -Path $src.FullName -Filter "*.wav" -Recurse | where-object {$_.lastwritetime -ge (Get-Date -Hour 0 -Minute 00 -Second 00).AddDays(-1) -and $_.lastwritetime -lt (Get-Date -Hour 0 -Minute 00 -Second 00)}
"Archiwum " + $src.Name + "_" + $Date + ".zip"
$apliki | Compress-Archive -DestinationPath ( $TARGETDIR + "\" + $src.Name + "_" + $Date + ".zip" )
}
#jezeli jakis error to zapisz, a jak nie to usuwaj
if ($error[0] -ne $null) {
                $errorlog += $error[0]
                $errorlog += " `n`n"
                  }
               
                else { $errorlog += "Folder glowny " + $sciezka +  " usunie"
                      $aapliki = Get-ChildItem -Path $sciezka $src.FullName -Filter "*.wav" -Recurse | where-object {$_.lastwritetime -ge (Get-Date -Hour 0 -Minute 00 -Second 00).AddDays(-1) -and $_.lastwritetime -lt (Get-Date -Hour 0 -Minute 00 -Second 00)}
                     # $apliki | Remove-Item -path $sciezka
                     $aapliki | Out-File ($TARGETDIR + "\" + $src.Name + "_" + $Date + ".txt")
                      }
         
           

В этом скрипте мне нужно поменять раздел "## kopiowanie danych sprzed 1 dnia". Я так понимаю, что в нем нужно вставить еще один foreach который вместо "where-object {$_.lastwritetime -ge (Get-Date -Hour 0 -Minute 00 -Second 00).AddDays(-1) -and $_.lastwritetime -lt (Get-Date -Hour 0 -Minute 00 -Second 00)} " будет перебирать даты и создавать соответсвующие архивы, только вот не могу докумекать как это сделать.

Для названий архивов удалось мне сообразить что-то такое:

$answer = Get-ChildItem d:\nagrania\* -Recurse -Filter "*.wav" | select Name, @{Name="LastWriteTime";
         Expression={$_.LastWriteTime.ToString("yyyy-MM-dd")}} | Sort LastWriteTime -Descending | Group-Object -Property LastWriteTime  | Format-List name | Out-String
$answer -creplace "Name : "

но я так понимаю для поиска он не подойдет.
Ни имел опыта создавать скрипты где foreach в foreach, не варит уже башка как это все собрать в кучу :)

P.S. Коменты в скрипте на польском языке, я уже не стал там ничего менять.


8
Если файлопомойка, лучше винды для нее нет ничего. А на NAS-ах один фиг линух, как его ни крути. Но Windows Server требует лицензию.
Как бэ сейчас уже все настроено и работает на Windows server 2016, просто думал может qnap придумали что-то интересное как надежно и безопасно администрировать файловыми шарами, чего нету в виндовом файл сервере, если учесть что уже есть два qnap.

9
Всем хелоу. Читая описание возможностей нового QNAP и подумываю может перенести всю файлопомойку на это чудо устройство?
У нас уже есть старый QNAP и используем его исключительно для бэкапов и логов. Место на старом начало заканчиваться, купили новый. На рекламной брошюре показывает как много умеет это чудо устройство и невольно задумываюсь о том что мы теряем весь потенциал этой железки. Если у кого есть хороший опыт в использования таких штук, прошу дать совет.
Ранее планировалось Новый QNAP использовать все так же для бэкапов, а старый для бэкап копи с этого нового QNAP только в меньшем промежутке времени. Сейчас же я подумываю на новом QNAP совместить бэкап вместе с файловой шарой, старый так же использовать для бэкап копи всего что на новом за меньший период времени, но пока не совсем понимаю какое преимущество я и пользователи файловой шары можем от этого получить?

Модель нового QNAP TS-1673U

10
Fail Logon уже доростает до 2500 попыток за сутки. Можно ли запретить авторизацию из вне, разрешить только из локальной сети?

11
я смотрел откуда брутят - и блокировал сетями на внешней циске.
Аудит у меня считывает логи типа Fail logon с контроллера, по этому я вижу только, что с сервера exchange было совершено там например 189 неудачных логонов учетные записи которых sales@-мойдомен-.ru, admin@--,info@ и так далее. Сервер соответственно смотрит, пробросом через микрот, наружу. По этому какой конкретно сервис smtp или activesync я не знаю.
а если добавить еще и проверку сертификата?
С сертификатом очень хорошая идея, но минус в том что я никогда не работал с nginx и нет уверенности, что в одиночку я смогу его одолеть. Можно ли это сделать непосредственно на exchange? Если нет, то буду мучать nginx. Сертификат можно сделать один для всех?



Updated: 21 March 2018, 19:44:17

Да и важно, чтобы сотрудники могли работать с мобильных приложений. Я не вижу где например в мобильном приложении Outlook для аутентификации прилипить сертификат.

12
Здравствуйте. Система аудита сигнализирует, что наш Exchange пытаются вскрыть из вне подбором паролей. Вначале это было около 20 попыток в день, сегодня спустя 3 месяца после установки уже 200 попыток в день. Пока радует, то что использую достаточно распространенные названия почтовых ящиков, мы таких не имеем. Так как я понимаю, что exchange не может банить по ip и по этому ничего другого в голову не приходит. Возможно нужно изменить сетевую конфигурацию, но не что менять и в какую сторону смотреть. У кого-то есть предложении как можно с этим бороться?
Имеем Exchange 2016
Спасибо.

13
Короче и через батник рестарт шлюза не выполнялся. Нашел утилиту "Telnet Scripting Tool v.1.0 by Albert Yale" ее запихнул в планировщик, создал файл конфигурационный и пошло как по маслу.

14
Задание в планировщике висит в состоянии "Работает". В свой vbs скрипт добавил внизу строку "WshShell.SendKeys "%{F4}"", но как-то все равно состояние работает, может нужно чет добавить с уровня cmd?


Updated: 27 December 2017, 13:50:00

Так как когда запускаешь батник вручную, видно как открывается telnet и после выполнения команд закрывается.

15
А если через wscript попробовать?
Вообще, я такую штуку через cmd мутил: в нем как раз был вызов csript и vbs
То есть создаешь батник и в нем вызываешь csript который выполняет мой vbs?

Страницы: [1] 2 3 ... 13