Просмотр сообщений

В этом разделе можно просмотреть все сообщения, сделанные этим пользователем.


Сообщения - Gekko

Страницы: [1] 2 3 ... 21
1
Windows / NTFS права на Win2008...
« : 02 Марта 2021, 19:07:37 »
Да, оно должно заработать. Но основная проблема в том, что бы разъединить им доступ таким образом, что бы они не смогли даже видеть чужие папки. Назревает некий конфликт между двумя фирмами, и требование одних - что бы те другие не смогли пользоваться их базами. Это не говоря уже о том, что все остальные между собой как бы конкуренты. И вот все это кубло собралось на одном сервере и теперь хочет как то разделиться.
Ну и в этой ситуации очевидным решением было бы разделить их по группам, но выясняется, что запреты в группе почему то не работают. Глюк не частый, но встречается.
ЗЫ Я ухи поел - как реализовано отключение наследования прав в 2008R2! Убираешь галочку и предложение одно другого краше: Либо нахрен удалить все наследования сразу, либо прописать их локально. А чего, позволить мне выбрать самому, какие менно наследования мне нужны - не судьба? Зачем мне все то удалять? Там и админские и системные... Короче с этими правами в винде какой то фарш устроен.

2
Windows / NTFS права на Win2008...
« : 02 Марта 2021, 13:39:09 »
Есть сервер 1с с РДП доступом и файловых баз штук 10. Решил разделить всем доступ по группам. Для начала попробовал отменить доступ группам "Пользователи" и "Пользователи РДП" на родительский каталог - каталог стал вообще недоступным. Вообще для всех. Даже для "Администратора". И как это получилось, позвольте спросить, если пользователь Администратор вообще ни каким боком к группе Юзеров не относится, он член единственной группы - "Администраторы" 
Ну ок - вернул все в зад. Попытался удалить полностью группы из списка - винда говорит "Нет нифига, это разрешения наследуются. удалить их тут нельзя" Ну и в результате все имеют доступ ко всем.
Решил для эксперимента сделать полнейший deny для одной групп пользователей на какую нибудь одну папку - не работает.
Хорошо еще что 1с по РДП открывается как удаленное приложение, но стоит только открыть окно добавления новой базы - и получаешь доступ ко всем дискам, кроме системных. Насколько я помню - процесс 1с при РДП запускается от пользователя, так что и права у него пользовательские. Тогда какого рожна он позволяет лазать через окно добавления базы по запрещенным ему дискам, когда есть совершенно четкий запрет группе этого пользака?
PS Что интересно - с группой deny не работает, а вот с отдельными пользователями - работает.


3
А вот как выглядит теперь мои два райда после этого падения:
Цитировать
[11:46 xen3 ~]# lsblk
NAME                                                                                        MAJ:MIN RM  SIZE RO TYPE  MOUNTPOINT
sdb                                                                                           8:16   0  1.8T  0 disk
├─sdb4                                                                                        8:20   0  110G  0 part
├─sdb2                                                                                        8:18   0  200G  0 part
├─sdb5                                                                                        8:21   0  293G  0 part
├─sdb3                                                                                        8:19   0  100G  0 part
├─sdb1                                                                                        8:17   0  100G  0 part
├─sdb6                                                                                        8:22   0    1T  0 part
└─3600508b1001cdf306e8126a684c7ff89                                                         253:0    0  1.8T  0 mpath
  ├─3600508b1001cdf306e8126a684c7ff89p1                                                     253:1    0  100G  0 part
  ├─3600508b1001cdf306e8126a684c7ff89p6                                                     253:6    0    1T  0 part
  ├─3600508b1001cdf306e8126a684c7ff89p4                                                     253:4    0  110G  0 part
  ├─3600508b1001cdf306e8126a684c7ff89p2                                                     253:2    0  200G  0 part
  ├─3600508b1001cdf306e8126a684c7ff89p5                                                     253:5    0  293G  0 part
  └─3600508b1001cdf306e8126a684c7ff89p3                                                     253:3    0  100G  0 part
tdc                                                                                         254:2    0    8G  0 disk
tda                                                                                         254:0    0  1.8T  0 disk
sda                                                                                           8:0    0  1.8T  0 disk
├─sda4                                                                                        8:4    0  512M  0 part  /boot/efi
├─sda2                                                                                        8:2    0   18G  0 part
├─sda5                                                                                        8:5    0    4G  0 part  /var/log
├─sda3                                                                                        8:3    0  1.8T  0 part
│ └─XSLocalEXT--b2850589--ece5--cc2b--5815--7ce4f571afd8-b2850589--ece5--cc2b--5815--7ce4f571afd8
                                                                                            253:7    0  1.8T  0 lvm   /run/sr-mount/b2850589-ece5-cc2b-5815-7ce4f571afd8
├─sda1                                                                                        8:1    0   18G  0 part  /
└─sda6                                                                                        8:6    0    1G  0 part  [SWAP]
tdd                                                                                         254:3    0   30G  0 disk
tdb                                                                                         254:1    0   20G  0 disk


Хотя сам массив вроде живой:

Цитировать
[09:16 xen3 ~]# hpssacli
HPE Smart Storage Administrator CLI 2.40.13.0
Detecting Controllers...Done.
Type "help" for a list of supported commands.
Type "exit" to close the console.

=> ctrl all show config

Smart HBA H240 in Slot 3 (RAID Mode)      (sn: PDРАСТBRH711C1)


   Port Name: 2I

   Port Name: 1I

   Internal Drive Cage at Port 1I, Box 2, OK

   Internal Drive Cage at Port 2I, Box 3, OK
   array A (SATA, Unused Space: 0  MB)


      logicaldrive 1 (1.8 TB, RAID 1, OK)

      physicaldrive 1I:2:1 (port 1I:box 2:bay 1, SATA, 2 TB, OK)
      physicaldrive 1I:2:2 (port 1I:box 2:bay 2, SATA, 2 TB, OK)

   array B (SATA, Unused Space: 0  MB)


      logicaldrive 2 (1.8 TB, RAID 1, OK)

      physicaldrive 2I:3:1 (port 2I:box 3:bay 1, SATA, 2 TB, OK)
      physicaldrive 2I:3:2 (port 2I:box 3:bay 2, SATA, 2 TB, OK)

=>


4
XCP-ng 8.1
Непонимаю - что произошло. С понедельника на вторник вырубился XCP-ng, и после этого падения загрузился, но уже без одной виртуалки и у некоторых VM пропали носители...
В логе crit.log на момент падения такие записи:
Цитировать
Jan 11 21:04:39 Xen3 kernel: [   28.535558] EXT4-fs error (device sda1): ext4_mb_generate_buddy:747: group 54, block bitmap and bg descriptor inconsistent: 29506 vs 29507 free clusters
Jan 11 21:04:40 Xen3 kernel: [   30.006183] EXT4-fs error (device sda1): ext4_mb_generate_buddy:747: group 0, block bitmap and bg descriptor inconsistent: 20178 vs 20418 free clusters
Jan 11 21:19:12 Xen3 kernel: [  901.356525] EXT4-fs error (device sda1): ext4_lookup:1578: inode #196672: comm systemd-tmpfile: deleted inode referenced: 205163
Jan 11 21:19:12 Xen3 kernel: [  901.373527] EXT4-fs error (device sda1): ext4_lookup:1578: inode #196672: comm systemd-tmpfile: deleted inode referenced: 205161

В kernel.log при подъеме сервера проскакивают среди лога загрузки такие строчки:

Цитировать
Jan 11 21:04:37 Xen3 kernel: [   24.557735] FAT-fs (sda4): Volume was not properly unmounted. Some data may be corrupt. Please run fsck.
Jan 11 21:04:37 Xen3 kernel: [   25.182511] EXT4-fs (sda5): mounting ext3 file system using the ext4 subsystem
Jan 11 21:04:37 Xen3 kernel: [   25.195015] EXT4-fs (sda5): mounted filesystem with ordered data mode. Opts: (null)
...
Jan 11 21:04:39 Xen3 kernel: [   28.535558] EXT4-fs error (device sda1): ext4_mb_generate_buddy:747: group 54, block bitmap and bg descriptor inconsistent: 29506 vs 29507 free clusters
Jan 11 21:04:39 Xen3 kernel: [   28.672187] JBD2: Spotted dirty metadata buffer (dev = sda1, blocknr = 0). There's a risk of filesystem corruption in case of system crash.
Jan 11 21:04:40 Xen3 kernel: [   30.006183] EXT4-fs error (device sda1): ext4_mb_generate_buddy:747: group 0, block bitmap and bg descriptor inconsistent: 20178 vs 20418 free clusters
Jan 11 21:04:40 Xen3 kernel: [   30.298620] JBD2: Spotted dirty metadata buffer (dev = sda1, blocknr = 0). There's a risk of filesystem corruption in case of system crash.
...
Jan 11 21:06:58 Xen3 kernel: [  167.910051] EXT4-fs (dm-7): mounted filesystem with ordered data mode. Opts: (null)
...
Jan 11 21:07:05 Xen3 kernel: [  174.878426] CIFS VFS: Error connecting to socket. Aborting operation.
Jan 11 21:07:05 Xen3 kernel: [  174.878455] CIFS VFS: cifs_mount failed w/return code = -113
Jan 11 21:07:11 Xen3 kernel: [  181.022372] CIFS VFS: Error connecting to socket. Aborting operation.
Jan 11 21:07:11 Xen3 kernel: [  181.022401] CIFS VFS: cifs_mount failed w/return code = -113
...
Jan 11 21:09:37 Xen3 kernel: [  326.877130] EXT4-fs (sda1): error count since last fsck: 343
Jan 11 21:09:37 Xen3 kernel: [  326.877168] EXT4-fs (sda1): initial error at time 1600423846: ext4_lookup:1578: inode 196609
Jan 11 21:09:37 Xen3 kernel: [  326.877190] EXT4-fs (sda1): last error at time 1610388280: ext4_mb_generate_buddy:747
...
Jan 11 21:19:12 Xen3 kernel: [  901.356525] EXT4-fs error (device sda1): ext4_lookup:1578: inode #196672: comm systemd-tmpfile: deleted inode referenced: 205163
Jan 11 21:19:12 Xen3 kernel: [  901.373527] EXT4-fs error (device sda1): ext4_lookup:1578: inode #196672: comm systemd-tmpfile: deleted inode referenced: 205161

5
Unix / Ошибка установки Proxmox на Debian
« : 07 Декабря 2020, 16:02:45 »
Возможно, конфликт с чем-то из того, что уже стоит.
Ну только же поставил систему - ничего нет. Даже mc и net-tools не ставил.

6
Unix / Ошибка установки Proxmox на Debian
« : 03 Декабря 2020, 15:59:29 »
Совершенно тупая и неочевидная хня на Дебиане: при установке Proxmox6 на 10й Дебиан вылезает распространенная ошибка про невозможность установить пакет proxmox-ve:
Цитировать
root@prox-test:/etc# apt install proxmox-ve
Reading package lists... Done
Building dependency tree
Reading state information... Done
Some packages could not be installed. This may mean that you have
requested an impossible situation or if you are using the unstable
distribution that some required packages have not yet been created
or been moved out of Incoming.
The following information may help to resolve the situation:

The following packages have unmet dependencies:
 proxmox-ve : Depends: pve-manager but it is not going to be installed
                     Depends: qemu-server but it is not going to be installed
E: Unable to correct problems, you have held broken packages.


Делал по мануалу с https://pve.proxmox.com/wiki/Install_Proxmox_VE_on_Debian_Buster. Все кто сталкивались с данной проблеммой находят решение в правильной настройке /etc/hosts, но я уже все возможные варианты перебрал - и с доменным именем и без, и с .local и без.
В конечном итоге вот что имеем:
hostname - prox-test
domainname - test.ru
Цитата: /etc/hosts
127.0.0.1       localhost.localdomain localhost
172.16.0.75    prox-test.test.ru prox-test
И апдейтил и апгрейдил и перезапускал уже раз пицот - все одно и то же. Даже принудительно загасил IPv6 - не помогло.
Я уже запутался - чяднт?

7
И сам уже неоднократно наступал на эти грабли и другие жалуются: Зачастую уровень LVM абстракции хранения данных бывает лишим. Старые админы, привыкшие работать с "железячными" массивами во время краша системы с использованием LVM с трудом понимают - что собственно происходит и как это фиксить.
Вопрос скорее риторический, но я в последнее время стараюсь не создавать хостов ни с хранилищами в виде LVM-томов.

8
Gekko, а в чем вопрос тогда?  ???


Updated: 19 November 2020, 13:17:03

З.Ы. Если официально всё делать, то хз, у нас когда кончаются терминальные лицензии, мы звоним в MS и да еще по запросу выделяют 500-1000.
В распространении лицензии на виртуальную винду даже при том, что хост не виндовый.

9
Э... Так у меня на хосте Xen стоит. Какая еще лицензия микрософт? То что подняв на ВинСервере Гипер-В можно еще одну виртуалку на винде забабахать по одной лицухе - это я и так знаю.
Вендор гипервизора значения не имеет, все равно две лицензии. Но это бумажные лицензии, они никак технически не контролируются. А вот с RDP CAL конечно вопрос, даст или не даст. Проверять надо.
Даст-даст...  :spiteful: Там с контролем еще хуже.

10
Лицензия Standard на хосте включает в себя две лицензии Standard на виртуалки если ничего не поменялось
Э... Так у меня на хосте Xen стоит. Какая еще лицензия микрософт? То что подняв на ВинСервере Гипер-В можно еще одну виртуалку на винде забабахать по одной лицухе - это я и так знаю. А вот как быть при человеческом переносе сервера - не совсем ясно. Я же не могу сперва заруинить рабочий сервер бухгалтерии, а потом, когда вдруг что то пойдет не так, сказать - "Ну потерпите дня два-три, я пока потестирую..."

11
Есть у меня старый железный терминальный сервер бухгалтерии на 2008 винде пимерно на 20 пользователей, и есть желание перенести его на свежее железо в виде виртуалки. Скажу сразу: я не горю желанием чего то там конвертировать с помощью всяческих утилит, перегонять образы дисков и прочую хрень. Мне нужно по старой лицензии на WinServer2008r2 + 20 CAL + 20 RDP-CAL поднять совершенно новую виртуальную машину.
Тут только один вопрос не закрыт: мнеж надо поднять две винды по одной лицензии... Ну хрен то с ним - я могу оставитьодну винду неактивированной до момента отключения старого сервера, но вот подымется ли RDP-сервер и сервер лицензирования? Уж дня три-четыре бесправной работы сервера микрософт мне простит?

12
Windows / Импорт контактов из Outlook
« : 15 Октября 2020, 10:32:16 »
создать пустой ёксель, в него отдельно скопировать сперва одно, потом другое..
 ???
Чет не выходит...  ??? При попытке совместить "правильную" шапку из одного файла с "правильным" содержимым второго почему то все слипается в одну строку. То есть открываеш в Ёкселе - все вроде бы правильно - контакты в своих ячейках. Открываеш в блокноте - все тоже вроде бы благопристойно выглядит - запятые есть между полями, даже посчитал их количество в каждой строке. А как импортирую в Аутлук - все слипается в одну строку.  :negodue:
Короче говоря - я забил на эту ерунду.

13
Windows / Офис 2019 при установке висит 365
« : 23 Сентября 2020, 15:14:42 »
Перед установкой своего коробочного оффиса удалите из системы все предыдущие версии, все предустановщики и прочую лабуду, которую напихали вместе с ОЕМ-виндой производители железа. А еще лучше - использовать специальный инструмент от Микрософта для удаления всех установок предыдущего оффиса.
https://support.microsoft.com/ru-ru/office/%D1%83%D0%B4%D0%B0%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5-office-%D1%81-%D0%BA%D0%BE%D0%BC%D0%BF%D1%8C%D1%8E%D1%82%D0%B5%D1%80%D0%B0-9dd49b83-264a-477a-8fcc-2fdf5dbf61d8

14
Windows / Импорт контактов из Outlook
« : 23 Сентября 2020, 14:58:28 »
Столкнулся с такой проблемой: дали мне файл .csv c контактами из Outlook2016 - у него список полей идет на кодировке Заподноевропейской 1252, а сами контакты написаны на Юникод UTF-8. Как это у них получилось - хрен знает, но теперь если загружать контакты, то либо все контакты нечитаемы, либо если попытаться сохранить документ в другой кодировке - поля слипаются. Уже часа четыре сижу пытаюсь привести этот файл в экселе к какому то однообразию...

15
права на каталог с 1С не выдавал пользователям?
Нет. Добавил для пользователей Write Modify и все заработало.

Страницы: [1] 2 3 ... 21