Просмотр сообщений

В этом разделе можно просмотреть все сообщения, сделанные этим пользователем.


Темы - Gekko

Страницы: [1] 2 3 ... 7
1
Windows / NTFS права на Win2008...
« : 02 Марта 2021, 13:39:09 »
Есть сервер 1с с РДП доступом и файловых баз штук 10. Решил разделить всем доступ по группам. Для начала попробовал отменить доступ группам "Пользователи" и "Пользователи РДП" на родительский каталог - каталог стал вообще недоступным. Вообще для всех. Даже для "Администратора". И как это получилось, позвольте спросить, если пользователь Администратор вообще ни каким боком к группе Юзеров не относится, он член единственной группы - "Администраторы" 
Ну ок - вернул все в зад. Попытался удалить полностью группы из списка - винда говорит "Нет нифига, это разрешения наследуются. удалить их тут нельзя" Ну и в результате все имеют доступ ко всем.
Решил для эксперимента сделать полнейший deny для одной групп пользователей на какую нибудь одну папку - не работает.
Хорошо еще что 1с по РДП открывается как удаленное приложение, но стоит только открыть окно добавления новой базы - и получаешь доступ ко всем дискам, кроме системных. Насколько я помню - процесс 1с при РДП запускается от пользователя, так что и права у него пользовательские. Тогда какого рожна он позволяет лазать через окно добавления базы по запрещенным ему дискам, когда есть совершенно четкий запрет группе этого пользака?
PS Что интересно - с группой deny не работает, а вот с отдельными пользователями - работает.


2
XCP-ng 8.1
Непонимаю - что произошло. С понедельника на вторник вырубился XCP-ng, и после этого падения загрузился, но уже без одной виртуалки и у некоторых VM пропали носители...
В логе crit.log на момент падения такие записи:
Цитировать
Jan 11 21:04:39 Xen3 kernel: [   28.535558] EXT4-fs error (device sda1): ext4_mb_generate_buddy:747: group 54, block bitmap and bg descriptor inconsistent: 29506 vs 29507 free clusters
Jan 11 21:04:40 Xen3 kernel: [   30.006183] EXT4-fs error (device sda1): ext4_mb_generate_buddy:747: group 0, block bitmap and bg descriptor inconsistent: 20178 vs 20418 free clusters
Jan 11 21:19:12 Xen3 kernel: [  901.356525] EXT4-fs error (device sda1): ext4_lookup:1578: inode #196672: comm systemd-tmpfile: deleted inode referenced: 205163
Jan 11 21:19:12 Xen3 kernel: [  901.373527] EXT4-fs error (device sda1): ext4_lookup:1578: inode #196672: comm systemd-tmpfile: deleted inode referenced: 205161

В kernel.log при подъеме сервера проскакивают среди лога загрузки такие строчки:

Цитировать
Jan 11 21:04:37 Xen3 kernel: [   24.557735] FAT-fs (sda4): Volume was not properly unmounted. Some data may be corrupt. Please run fsck.
Jan 11 21:04:37 Xen3 kernel: [   25.182511] EXT4-fs (sda5): mounting ext3 file system using the ext4 subsystem
Jan 11 21:04:37 Xen3 kernel: [   25.195015] EXT4-fs (sda5): mounted filesystem with ordered data mode. Opts: (null)
...
Jan 11 21:04:39 Xen3 kernel: [   28.535558] EXT4-fs error (device sda1): ext4_mb_generate_buddy:747: group 54, block bitmap and bg descriptor inconsistent: 29506 vs 29507 free clusters
Jan 11 21:04:39 Xen3 kernel: [   28.672187] JBD2: Spotted dirty metadata buffer (dev = sda1, blocknr = 0). There's a risk of filesystem corruption in case of system crash.
Jan 11 21:04:40 Xen3 kernel: [   30.006183] EXT4-fs error (device sda1): ext4_mb_generate_buddy:747: group 0, block bitmap and bg descriptor inconsistent: 20178 vs 20418 free clusters
Jan 11 21:04:40 Xen3 kernel: [   30.298620] JBD2: Spotted dirty metadata buffer (dev = sda1, blocknr = 0). There's a risk of filesystem corruption in case of system crash.
...
Jan 11 21:06:58 Xen3 kernel: [  167.910051] EXT4-fs (dm-7): mounted filesystem with ordered data mode. Opts: (null)
...
Jan 11 21:07:05 Xen3 kernel: [  174.878426] CIFS VFS: Error connecting to socket. Aborting operation.
Jan 11 21:07:05 Xen3 kernel: [  174.878455] CIFS VFS: cifs_mount failed w/return code = -113
Jan 11 21:07:11 Xen3 kernel: [  181.022372] CIFS VFS: Error connecting to socket. Aborting operation.
Jan 11 21:07:11 Xen3 kernel: [  181.022401] CIFS VFS: cifs_mount failed w/return code = -113
...
Jan 11 21:09:37 Xen3 kernel: [  326.877130] EXT4-fs (sda1): error count since last fsck: 343
Jan 11 21:09:37 Xen3 kernel: [  326.877168] EXT4-fs (sda1): initial error at time 1600423846: ext4_lookup:1578: inode 196609
Jan 11 21:09:37 Xen3 kernel: [  326.877190] EXT4-fs (sda1): last error at time 1610388280: ext4_mb_generate_buddy:747
...
Jan 11 21:19:12 Xen3 kernel: [  901.356525] EXT4-fs error (device sda1): ext4_lookup:1578: inode #196672: comm systemd-tmpfile: deleted inode referenced: 205163
Jan 11 21:19:12 Xen3 kernel: [  901.373527] EXT4-fs error (device sda1): ext4_lookup:1578: inode #196672: comm systemd-tmpfile: deleted inode referenced: 205161

3
Unix / Ошибка установки Proxmox на Debian
« : 03 Декабря 2020, 15:59:29 »
Совершенно тупая и неочевидная хня на Дебиане: при установке Proxmox6 на 10й Дебиан вылезает распространенная ошибка про невозможность установить пакет proxmox-ve:
Цитировать
root@prox-test:/etc# apt install proxmox-ve
Reading package lists... Done
Building dependency tree
Reading state information... Done
Some packages could not be installed. This may mean that you have
requested an impossible situation or if you are using the unstable
distribution that some required packages have not yet been created
or been moved out of Incoming.
The following information may help to resolve the situation:

The following packages have unmet dependencies:
 proxmox-ve : Depends: pve-manager but it is not going to be installed
                     Depends: qemu-server but it is not going to be installed
E: Unable to correct problems, you have held broken packages.


Делал по мануалу с https://pve.proxmox.com/wiki/Install_Proxmox_VE_on_Debian_Buster. Все кто сталкивались с данной проблеммой находят решение в правильной настройке /etc/hosts, но я уже все возможные варианты перебрал - и с доменным именем и без, и с .local и без.
В конечном итоге вот что имеем:
hostname - prox-test
domainname - test.ru
Цитата: /etc/hosts
127.0.0.1       localhost.localdomain localhost
172.16.0.75    prox-test.test.ru prox-test
И апдейтил и апгрейдил и перезапускал уже раз пицот - все одно и то же. Даже принудительно загасил IPv6 - не помогло.
Я уже запутался - чяднт?

4
И сам уже неоднократно наступал на эти грабли и другие жалуются: Зачастую уровень LVM абстракции хранения данных бывает лишим. Старые админы, привыкшие работать с "железячными" массивами во время краша системы с использованием LVM с трудом понимают - что собственно происходит и как это фиксить.
Вопрос скорее риторический, но я в последнее время стараюсь не создавать хостов ни с хранилищами в виде LVM-томов.

5
Есть у меня старый железный терминальный сервер бухгалтерии на 2008 винде пимерно на 20 пользователей, и есть желание перенести его на свежее железо в виде виртуалки. Скажу сразу: я не горю желанием чего то там конвертировать с помощью всяческих утилит, перегонять образы дисков и прочую хрень. Мне нужно по старой лицензии на WinServer2008r2 + 20 CAL + 20 RDP-CAL поднять совершенно новую виртуальную машину.
Тут только один вопрос не закрыт: мнеж надо поднять две винды по одной лицензии... Ну хрен то с ним - я могу оставитьодну винду неактивированной до момента отключения старого сервера, но вот подымется ли RDP-сервер и сервер лицензирования? Уж дня три-четыре бесправной работы сервера микрософт мне простит?

6
Windows / Импорт контактов из Outlook
« : 23 Сентября 2020, 14:58:28 »
Столкнулся с такой проблемой: дали мне файл .csv c контактами из Outlook2016 - у него список полей идет на кодировке Заподноевропейской 1252, а сами контакты написаны на Юникод UTF-8. Как это у них получилось - хрен знает, но теперь если загружать контакты, то либо все контакты нечитаемы, либо если попытаться сохранить документ в другой кодировке - поля слипаются. Уже часа четыре сижу пытаюсь привести этот файл в экселе к какому то однообразию...

7
Unix / Как считается квота на почтовике?
« : 09 Сентября 2020, 15:41:13 »
  Пожаловался один пользователь: квота на почтовом ящике закончилась! Я ему резонно заявляю: Милейший, у вас там ящик с квотой на 750Гб - что вам еще надо? Может быть удалите прошлогодние письма с отсканированными в pdf счетами? Глядишь - и местечко появится.
Короче говоря слово за слово - полез проверять. И тут выясняется два момента:
  Первый момент: у него настроена почта на pop3 и удаляется с сервера через 14 дней, то есть фактически у него там две недели писем всего лишь. Но это меняразумеется нисколько не разжалобило и я полез проверять объем содержимого в его папках на сервере.
  И вот тут момент номер 2: на сервере вся его папка Maildir весит 400Гб. Но при квоте в 750Гб уже сообщает что "100% Quota!"
Цитировать
[root@mail  petrovich-2019.04.21.13.53.33]# du -sh ./Maildir
396M    ./Maildir

[root@mail petrovich-2019.04.21.13.53.33]# du -sh ./Maildir/*
392M    ./Maildir/cur
0       ./Maildir/dovecot-acl-list
28K     ./Maildir/dovecot.index
20K     ./Maildir/dovecot.index~
2.6M    ./Maildir/dovecot.index.cache
360K    ./Maildir/dovecot.index.cache~
28K     ./Maildir/dovecot.index.log
32K     ./Maildir/dovecot.index.log~
36K     ./Maildir/dovecot.index.log.2
52K     ./Maildir/dovecot.index.log.2~
4.0K    ./Maildir/dovecot.index.thread
4.0K    ./Maildir/dovecot-keywords
4.0K    ./Maildir/dovecot.mailbox.log
112K    ./Maildir/dovecot-uidlist
76K     ./Maildir/dovecot-uidlist~
4.0K    ./Maildir/dovecot-uidvalidity
0       ./Maildir/dovecot-uidvalidity.5cbd1f09
12K     ./Maildir/new
4.0K    ./Maildir/subscriptions
4.0K    ./Maildir/tmp


Что то я не совсем понимаю - а где еще 350Гб то?


Updated: 09 September 2020, 16:48:16

Очевидно - квота неправильно считается. Долго плясал вокруг всяких конфигов, менял квоту туда-сюда, но решение оказалось намного проще:
Цитировать
[root@mail /]# doveadm quota get -u petrovich@gazprom.ru
Quota name Type     Value  Limit                                                                %
user       STORAGE 738942 819200                                                            90
user       MESSAGE   1942      -                                                                  0

[root@mail /]# doveadm quota recalc -u petrovich@gazprom.ru
[root@mail /]# doveadm quota get -u petrovich@gazprom.ru

Quota name Type     Value  Limit                                                                %
user       STORAGE 394266 819200                                                            48
user       MESSAGE   1566      -                                                                  0


8
Немного вводных: Есть сервер HP с собранным на HBA RAID5 - Четыре диска 2Тб. Установлен XenServer
В виртуальной машине примаунчена папка удаленного NFS сервера, на ней лежит что то порядка 40Гб мелких файлов. Недавно возникла необходимость перенести все эти файлы на локальный диск этой виртуалки. Запускаю:
Цитировать
rsync - avhW
и вот начинается копирование-синхронизация, но в какой то момент начинают сыпаться ошибки: файл недоступен: ошибка ввода-вывода.

Виртуалка в консоли повисает намертво. На попытки перезагрузить ее с помошью панели управления XenCenter не реагирует. А то и вовсе пару раз весь сервер целиком уходил на перезагрузку.
Более того хост может тоже застопорится вместе с этой виртуальной машиной - на попытки запустить вообще что либо из консоли, к примеру reboot, Ксен говорит
Цитировать
23:01 xenserver3 ~]# reboot
Failed to start reboot.target: Unit is not loaded properly: Input/output error.
See system logs and 'systemctl status reboot.target' for details.

Broadcast message from root@xenserver3 on pts/0 (Sun 2020-07-19 23:20:08 MSK):

The system is going down for reboot NOW!

[23:22 xenserver3 ~]# systemctl status reboot.target
? reboot.target
   Loaded: error (Reason: Input/output error)
   Active: inactive (dead)
[23:23 xenserver3 ~]#
На попытку reboot из консоли говорит:
Удается перезапустить только через кнопку или через SysRq-B.
И вот тут у меня осознанность расплываться начинает - в какую сторону копать? ЧТо именно сыпется? ЧТо тут может быть не в порядке? Это массив на сервере глючит? Или LVM на Ксене или на виртуалке запортился? Или может просто не стоит с помощью rsync гонять большие объемы данных по с NFS? Хотя вот сейчас попробовал перекопировать с локального диска на локальный внутри виртуалке и тот же результат:
ila_rendered


Updated: 20 July 2020, 15:08:24

ЗЫ Немного погодя стало ясно, что причина в самом сервере а не в виртуальной машине: только что попытался создать на хосте новую виртуалку, что бы перелить все на нее - делал с такими мыслями, что "мол мало ли - машина переносилась с проксмокса и могла за собой притащить какие нибудь не те драйвера для файловой системы, ну и отсюда все беды" Думал, что созданная с нуля на хосте машина поправит все дело. Но -нет. При установке CentOS - как пошла инсталяция системы - весь гипервизор целиком ребутнулся, как будь то его за провод кто дернул.
На сервере два блока питания включенные в разные упсы - кстати.

9
Вопрос от непросвещенного в Дао гоя: как в FreePBX отменить эту функцию, когда любой внутренний непринятый звонок автоматически переводится на номер секретаря 101? Вот звоню я с 136 на 110, а там никто трубку не берет, и после 4-5 гудков звонок вдруг переводится на номер 101.
FreePBX - 12.0.76.2

10
Hardware / Восстановление данных...
« : 16 Июля 2020, 12:20:31 »
   Как обычно навернулся маленький почтовик на линуксе, и решили мы посмотреть - что из него можно спасти. rsync'ом попытались с него вытащить папку с письмами, но вытащили меньше половины ящиков, остальное rsync сказал - I/O error и диск перестал отвечать. Навероне я его окончательно загнал. При последующих подключениях (особенно когда полежит подольше) может показать диск целиком, папки внутри и т.д., но через несколько минут может и вовсе пропасть как устройство.
  Диск обычный SATA2 3.5" Seagate Barracuda 250G c фирменной прошивкой от HP - cтоял в микросервере, поэтому когда начал помирать - никак об этом не просигнализировал, а пахал до последнего.
  Смарт показывает что "DISK IS LIKELY TO FAIL SOON" и перебор по "реалокейтед секторс"
   В общем теперь думаю - как с него выкачать примерно 80Гб данных в виде кучи мелких файлов - то есть почтовое хранилище.

11
Сегодня с утра не запустились виртуалки на ксене. Полез смотреть - хост запущен, виртуалки на нем выключены и при попытке запустить пишет: "HVM is required for this operation"

Хорошо хоть ILO имелось - посмотрел в биосе: Intel Virtualization Technology отключена. В общем какая то непонятная выборочная фигота - как так получилось, что один из параметров биоса слетел? Рядом стоящий C-State, который я когда то давно в ручную отключал, так и остался выключенным а вот виртуализация слетела. Мистика какая то.  :(

12
Недавно гикнулась нода проксмокса на которой был почтовик. После того как почтовик запустили на резервной ноде у многих (но не у всех) клиентов с Outlook происходит такой стандартный глюк с отображением входящих писем: при нажатии на "Получить/отправить" список входящих не обновляется, пока не сменишь папку отображения: перескочил, допустим, с папки "Входящие" на папку "Отправленные" и назад - и пришедшие письма отобразились. А пока с папки на папку не перейдешь - ничего во входящих не появляется. Ни по таймеру проверки ни по кнопке "Получить/отправить F9". Раньше такой глюк проскакивал на отдельных машинах и его как то забарывали "бубном", то есть единого алгоритма решения не было: кому то помогало удалить и завести заново аккаунт, а кому то только переустановка Офиса.
Формально - поменялось местоположение почтовика. Он переехал на сервер двумя юнитами ниже в той же стойке. У резервной ноды все точно такие же сетевые настройки. В показаниях mxtoolbox ничего криминального не появилось - все так же ровно.
Если раньше я себя успокаивал тем, что это стандартный глюк аутлука, то теперь это сделать достаточно трудно: те юзеры кто ранее с этим не сталкивался получили эту проблему сразу после восстановления почтовика.
ЗЫ Практически все учетки настроены IMAP.

13
Hardware / SmartArray RAID - жонглирование дисками.
« : 19 Февраля 2020, 10:01:02 »
Понадобилось тут мне пересобрать один массив на НР c контроллером p410. Вводные:
Контроллер p410 SmartArray
RAID1 + spare
Стоят:  3 штуки SSD  120 Gb
Новые: 3 штуки SSD 1Tb
Контроллер поддерживает горячую замену, так что ничто не предвещало беды. Проще всего было заменить спару - она даже ребилдиться не стала. А вот потом я завис...
  По моей задумке нужно было выдернуть один из дисков райда и, быстренько перевентив в салазки новый винт, вставить обратно. Но что будет происходить в тот момент, когда я вытащу диск? Ведь контроллер тут же скажет что рейд дегрейдед и начнет ребилд зеркала на только что вставленную спару.  :( А во время этого ребилда может быть не стоит беспокоить массив добавлением нового диска? Может быть лучше дождаться окончания ребилда? Блин, ну тогда получается такую же процедуру придется повторить и со вторым диском? Это лишние ребилды туда-сюда...
  Тут меня гениально осенило: а зачем делать лишние ребилды, если можно сделать так:
1 Вытащить диск3 спару, для предотвращения попыток ребилда на него - контроллер ругнется что нет спары но ничего страшного, мол , нетую
2 Вытащить один диск из зеркала, ну скажем диск2 - контроллер скажет, что массив деградировал и ребилдится некуда и опять таки ребилд не произойдет.
3 Вставлю вместо диска2 новый диск и начнется ребилд уже на нужный новый диск.
4 Точно так же без спары передернуть следующий диск, и отребилдить его.
5 В конце всей процедуры поставить спару и - массив полностью собран.
Вот на третьем шаге я спорол херню - я подумал "А чего я буду сейчас перевинчивать диски из салазок в салазки? Вот у меня в руках уже замененная на терабайт спара, которую я только что вынул - ее сейчас и вставлю! Какая разница то? Вот прям щаз вынимаю салазки с одним из основных дисков массива и туда же вставляю этот из слота спары..." Разница была - уже побывав в этом массиве спарой, новый диск в другом разъеме все равно определился как спара. Более того - сервер тут же срыгнул на ребут и POST контроллера сказал, что именно из за этого диска он не может собрать ни один массив (а надо упомянуть, что помимо этого RAID1 на контроллере собраны еще два массива).
Я переставил новую спару в старый слот , но получил ту же ошибку в помте контроллера. И только когда я взял совершенно новый терабайтник и поставил его в третий слот на место спары - только тогда контроллер его подхватил и сервер загрузился.
Сейчас в этом массиве я заменил два старых диска новыми терабайтниками, на очереди последний. Но менять его придется именно на этот терабайтник который уже побывал спарой и глюкнул. И тут что то стремно мне. Вопрос вот в чем: если я его сейчас вставлю - он не завопит, что этот диск уже был спарой и не развалит опять все массивы на контроллере? С другой стороны - текущая спара то уже есть, может он акстится и пометит его по новой и примет в массив?
   

14
Есть у меня внутренняя телефонка на астериске в которой звонятся сотрудники внутри фирмы. Иногда они уходят в кредиты-декреты-загулы и хотят этот телефон себе домой. Я вот думаю - а насколько безопасно высовывать порты астериска за NAT? Там такой диапазаон: от 10000 до 20000...
Где то читал, что для связи одного клиента требуется 4 (а может быть и 3) порта, то есть если всего 20-30 портов, то может быть и не стоит расшаривать все десять тысяч портов? Указать в rtp.conf
Цитировать
rtpstart = 10000
rtpend  = 10100

и в нате прокинуть только этот диапозон? Ну по крайней мере сто портов - это не десять тысяч.

15
Главный / RAID из НАСа... Как прочесть?
« : 25 Ноября 2019, 10:29:21 »
Чем дальше мои филиалы - тем тяжелее там укореняется техноересь. В одном далеком филиале полетел НАС: простенький Сигейт-Д2. Перестал показывать шары. Оттуда мне почему то привезли только один диск, хотя по идее их должно быть два. После применения терморектального криптоанализа было выявлено, что диск там был всего один изначально.
В общем стал я его подключать к машинке с Минтом, что бы там через GParted разделы рассмотреть. Г-партед показал кучу маленьких ext3 разделов и в конце два RAID раздела: один маленький и один большой типа "linux_raid".
 То есть несмотря на то, что диск в хранилище стоит только один - там все равно формируется RAID, и так просто увиденные тома не примаунтиш. При попытке примаунтить большой райд-раздел вышла ошибка: «mount: unknown filesystem type 'linux_raid_member'»...
  В общем дальше пошли пляски с mdadm: попытался собрать массив через madadm -E... Понял что массив уже автоматически попытался собраться, но не собрался... Попытки развалить то что автоматически сконфигурировалось что бы подключить все вручную...
  Короче говоря - бг знает к чему бы это привело, если бы меня не осенила здравая мысль - сделать бэкап этого диска пока я его окончательно не доканал. Сделал клон диска с помощью MiniTool, и продолжил работать уже с копией.
  Но вот когда я посмотрел на склонированный диск, то увидел что он собрался по другому: в начале все так же куча ext3 разделов, так же в еонце два раздела "linux_raid". Снова попробовал на удачу примаунтить большой райд раздел но получил уже другую ошибку: «mount: unknown filesystem type LVM2_member» Ага! Стал посмотреть fdisk -l, и в конце увидел ЛВМ-раздел. И это был именно тот раздел который мне нужен - там и данные и какие то служебные каталоги самого Сигейта... Причем этот раздел был создан не только что, а в 2016 году самим НАСом, судя по выводу lvdisplay.
  В общем я сейчас уже перекачиваю с него данные, но хоть убей не пойму - почему c оригинального диска не увиделся этот ЛВМ раздел, а увиделся он только с клона? Рандом какой то...  ???

Страницы: [1] 2 3 ... 7