Просмотр сообщений

В этом разделе можно просмотреть все сообщения, сделанные этим пользователем.


Сообщения - Gekko

Страницы: [1] 2 3 ... 22
1
Так всё таки, если значительное число юзеров всё равно не в локалке и скорости низкие почему не в облака то?
Ну... Посчитав все что с ходу было предложено - дешевле купить сервер и приставить к нему студента-недоучку.

2
Гонять через 20Мбит SQLные запросы - дело тоже не быстрое.
дожили млин...
куда катится этот мир  :facepalm2:
Екзистенциальной тоской можно в оффтопике разливаться. Конструктивно то че предлагаете? Ясное дело - мы тут ничего слаще репы не ели, так хоть вы рассккажите - что там нынче в трендах?

3
Шло время... Сейчас собираю на 12 терминальных бухгалтеров вот такую вот конфигу: 2 x Intel Xeon 4214R, 64 Gb. RAID1 2x2Tb FireWolf  под систему + 3 x 1Tb SSD Intel 4500 под базы.

4
Hardware / SSHD Гибридные винты.
« : 21 Октября 2021, 15:50:39 »
Лет 5 назад закупились мы по полной гибридными Файркудами двухтерабайтными. И больше половины из них вылетели из сереверов еще до гарантийного срока. Пожалуй  - худшая статистика из всех известных мне моделей.
Тепереь вот собираю новый сервер, а в нвличии дисков нифига нет (ну сейчас практически ничего нет). Есть в резерве у поставщика шесть штук 2 терабайтных sas Exos. И чего то очень не хочется опять брать гибриды у Сигейта.

5
Gekko, я за rdp
Я в общем то тоже. Гонять через 20Мбит SQLные запросы - дело тоже не быстрое.

6
Есть два варианта собрать 1с сервер на 10-12 бухгалтеров разбросанных по удаленным филиалам. Филиалы на удаленке по 20Мбит каналам, работают с примерно двадцатью базами максимум по два человека в каждой. Учитывая, что они далеко и на 20Мбитах - вариант сервера-файлопомойки с файловыми базами отпадает - тормозно и глючно. По этому остается два варианта:
1) RDP-Server на Win2019 Standart + 12 CAL + 12 RDP CAL - дорага-багато! Но дорого... Но богато, в смысле возможностей на вырост больше.
2) SQL-Server на Win2019 Esentials + 1C Server + SQL Server Runtime по программе дистрибьютеров 1с. Ну тут я не помню - под рантайм версию нужно приобретать SQL Cal или нет, но все равно на сотню дешевле выйдет. И у Esentiales ограничение по оперативке - 64Гб, боюсь как бы SQL тесно не было...

7
Чего то пока не сообразил - как это реализовать: нужна внутренняя гостевая сеть с доступом только в и-нет, без возможности лазать по локалке.
Есть внутренняя сеть 172.16.0.0/16 со шлюзом 172.16.0.1.
Внутри сети решено отгородить роутером (mikrotik) небольшую сетку для всяких приезжих с доступом в инет.
Вопрос: как заблокировать хождение пакетов в 172.16.0.0 при этом не запрещая обращение к шлюзу 172.16.0.1?
Пока думаю - поставить три правила одно за другим:
1) accept входящих-исходящих на адрес шлюза
2-3) drop всех входящих-исходящих подсети 172.16.0.0.
Я не очень хорошо знаю микротик, но может там есть какие то штатные методы капсуляции? Сразу оговорюсь - огородить нужно будет весь трафик с этого микротика, не только Wi-fi.


Updated: 04 October 2021, 13:36:24

Добавил поверх всего списка правил во вкладке FilterRules
Как то больно просто, но вроде пока работает...

8
В общем массив за два дня зарекаверился, но видимо пока диски туда-сюда дергали, развалилась вся разметка и тома похерелись. Ей богу - быстрее было заново новый сервер поднять и бэкапы на него залить.  :facepalm2:

9
На старинном Пролианте Г5 развалился в процессе ребилда массив RAID10. С него пропали все тома, остался только один большой неразмеченный том. Систем разумеется теперь с него не грузится и по моему - все пропало...
Сейчас зашел в ORCA массива и вижу там такую картину:
ila_rendered
Logical Drive # 1, RAID 1+0, 931.5 GB, RECOVERING.
В массиве все диски чувствуют себя хорошо - стоит статус ОК.
ila_rendered
Я вот уже сутки жду когда этот RECOVERING закончится, но что то конца и края нет.

В Inspect Utility висит последнее после пеерезагрузки сообщение: 1778-Drive Array Resuming Automatic Data Recovery Process.
Troubleshuting Guide читаем:
Цитировать
1778-Drive Array Resuming Automatic Data Recovery Process
Audible Beeps: NonePossible
Cause: A controller reset or power cycle occurred while Automatic Data Recovery was in progress.
Action: No action is required.
???

10
Software / Outlook: Уведомления о прочтении...
« : 24 Августа 2021, 11:37:23 »
Снова про Аутглюк.  :facepalm2:
Настроил почту на общий ящик, в папку "Входящие" насыпалось несколько тысяч писем с отметкой "непрочтенные". Тыркаем на нее "ометить все как прочтенные" и получаем невидимую очередь из нескольких тысяч уведомлений о прочтении и нерабочий Аутлук, занятый на несколько суток...
Вопрос: как этим можно управлять? Как отменить отправку уже поставленных в очередь уведомлений? Я конечно могу просто грохнуть почтовый аккаунт, создать заново, отключить в настройках отправку уведомлений и заново отметить "как прочитанное". Но как это сделать без удаления учетки?

11
Windows / NTFS права на Win2008...
« : 02 Марта 2021, 19:07:37 »
Да, оно должно заработать. Но основная проблема в том, что бы разъединить им доступ таким образом, что бы они не смогли даже видеть чужие папки. Назревает некий конфликт между двумя фирмами, и требование одних - что бы те другие не смогли пользоваться их базами. Это не говоря уже о том, что все остальные между собой как бы конкуренты. И вот все это кубло собралось на одном сервере и теперь хочет как то разделиться.
Ну и в этой ситуации очевидным решением было бы разделить их по группам, но выясняется, что запреты в группе почему то не работают. Глюк не частый, но встречается.
ЗЫ Я ухи поел - как реализовано отключение наследования прав в 2008R2! Убираешь галочку и предложение одно другого краше: Либо нахрен удалить все наследования сразу, либо прописать их локально. А чего, позволить мне выбрать самому, какие менно наследования мне нужны - не судьба? Зачем мне все то удалять? Там и админские и системные... Короче с этими правами в винде какой то фарш устроен.

12
Windows / NTFS права на Win2008...
« : 02 Марта 2021, 13:39:09 »
Есть сервер 1с с РДП доступом и файловых баз штук 10. Решил разделить всем доступ по группам. Для начала попробовал отменить доступ группам "Пользователи" и "Пользователи РДП" на родительский каталог - каталог стал вообще недоступным. Вообще для всех. Даже для "Администратора". И как это получилось, позвольте спросить, если пользователь Администратор вообще ни каким боком к группе Юзеров не относится, он член единственной группы - "Администраторы" 
Ну ок - вернул все в зад. Попытался удалить полностью группы из списка - винда говорит "Нет нифига, это разрешения наследуются. удалить их тут нельзя" Ну и в результате все имеют доступ ко всем.
Решил для эксперимента сделать полнейший deny для одной групп пользователей на какую нибудь одну папку - не работает.
Хорошо еще что 1с по РДП открывается как удаленное приложение, но стоит только открыть окно добавления новой базы - и получаешь доступ ко всем дискам, кроме системных. Насколько я помню - процесс 1с при РДП запускается от пользователя, так что и права у него пользовательские. Тогда какого рожна он позволяет лазать через окно добавления базы по запрещенным ему дискам, когда есть совершенно четкий запрет группе этого пользака?
PS Что интересно - с группой deny не работает, а вот с отдельными пользователями - работает.


13
А вот как выглядит теперь мои два райда после этого падения:
Цитировать
[11:46 xen3 ~]# lsblk
NAME                                                                                        MAJ:MIN RM  SIZE RO TYPE  MOUNTPOINT
sdb                                                                                           8:16   0  1.8T  0 disk
├─sdb4                                                                                        8:20   0  110G  0 part
├─sdb2                                                                                        8:18   0  200G  0 part
├─sdb5                                                                                        8:21   0  293G  0 part
├─sdb3                                                                                        8:19   0  100G  0 part
├─sdb1                                                                                        8:17   0  100G  0 part
├─sdb6                                                                                        8:22   0    1T  0 part
└─3600508b1001cdf306e8126a684c7ff89                                                         253:0    0  1.8T  0 mpath
  ├─3600508b1001cdf306e8126a684c7ff89p1                                                     253:1    0  100G  0 part
  ├─3600508b1001cdf306e8126a684c7ff89p6                                                     253:6    0    1T  0 part
  ├─3600508b1001cdf306e8126a684c7ff89p4                                                     253:4    0  110G  0 part
  ├─3600508b1001cdf306e8126a684c7ff89p2                                                     253:2    0  200G  0 part
  ├─3600508b1001cdf306e8126a684c7ff89p5                                                     253:5    0  293G  0 part
  └─3600508b1001cdf306e8126a684c7ff89p3                                                     253:3    0  100G  0 part
tdc                                                                                         254:2    0    8G  0 disk
tda                                                                                         254:0    0  1.8T  0 disk
sda                                                                                           8:0    0  1.8T  0 disk
├─sda4                                                                                        8:4    0  512M  0 part  /boot/efi
├─sda2                                                                                        8:2    0   18G  0 part
├─sda5                                                                                        8:5    0    4G  0 part  /var/log
├─sda3                                                                                        8:3    0  1.8T  0 part
│ └─XSLocalEXT--b2850589--ece5--cc2b--5815--7ce4f571afd8-b2850589--ece5--cc2b--5815--7ce4f571afd8
                                                                                            253:7    0  1.8T  0 lvm   /run/sr-mount/b2850589-ece5-cc2b-5815-7ce4f571afd8
├─sda1                                                                                        8:1    0   18G  0 part  /
└─sda6                                                                                        8:6    0    1G  0 part  [SWAP]
tdd                                                                                         254:3    0   30G  0 disk
tdb                                                                                         254:1    0   20G  0 disk


Хотя сам массив вроде живой:

Цитировать
[09:16 xen3 ~]# hpssacli
HPE Smart Storage Administrator CLI 2.40.13.0
Detecting Controllers...Done.
Type "help" for a list of supported commands.
Type "exit" to close the console.

=> ctrl all show config

Smart HBA H240 in Slot 3 (RAID Mode)      (sn: PDРАСТBRH711C1)


   Port Name: 2I

   Port Name: 1I

   Internal Drive Cage at Port 1I, Box 2, OK

   Internal Drive Cage at Port 2I, Box 3, OK
   array A (SATA, Unused Space: 0  MB)


      logicaldrive 1 (1.8 TB, RAID 1, OK)

      physicaldrive 1I:2:1 (port 1I:box 2:bay 1, SATA, 2 TB, OK)
      physicaldrive 1I:2:2 (port 1I:box 2:bay 2, SATA, 2 TB, OK)

   array B (SATA, Unused Space: 0  MB)


      logicaldrive 2 (1.8 TB, RAID 1, OK)

      physicaldrive 2I:3:1 (port 2I:box 3:bay 1, SATA, 2 TB, OK)
      physicaldrive 2I:3:2 (port 2I:box 3:bay 2, SATA, 2 TB, OK)

=>


14
XCP-ng 8.1
Непонимаю - что произошло. С понедельника на вторник вырубился XCP-ng, и после этого падения загрузился, но уже без одной виртуалки и у некоторых VM пропали носители...
В логе crit.log на момент падения такие записи:
Цитировать
Jan 11 21:04:39 Xen3 kernel: [   28.535558] EXT4-fs error (device sda1): ext4_mb_generate_buddy:747: group 54, block bitmap and bg descriptor inconsistent: 29506 vs 29507 free clusters
Jan 11 21:04:40 Xen3 kernel: [   30.006183] EXT4-fs error (device sda1): ext4_mb_generate_buddy:747: group 0, block bitmap and bg descriptor inconsistent: 20178 vs 20418 free clusters
Jan 11 21:19:12 Xen3 kernel: [  901.356525] EXT4-fs error (device sda1): ext4_lookup:1578: inode #196672: comm systemd-tmpfile: deleted inode referenced: 205163
Jan 11 21:19:12 Xen3 kernel: [  901.373527] EXT4-fs error (device sda1): ext4_lookup:1578: inode #196672: comm systemd-tmpfile: deleted inode referenced: 205161

В kernel.log при подъеме сервера проскакивают среди лога загрузки такие строчки:

Цитировать
Jan 11 21:04:37 Xen3 kernel: [   24.557735] FAT-fs (sda4): Volume was not properly unmounted. Some data may be corrupt. Please run fsck.
Jan 11 21:04:37 Xen3 kernel: [   25.182511] EXT4-fs (sda5): mounting ext3 file system using the ext4 subsystem
Jan 11 21:04:37 Xen3 kernel: [   25.195015] EXT4-fs (sda5): mounted filesystem with ordered data mode. Opts: (null)
...
Jan 11 21:04:39 Xen3 kernel: [   28.535558] EXT4-fs error (device sda1): ext4_mb_generate_buddy:747: group 54, block bitmap and bg descriptor inconsistent: 29506 vs 29507 free clusters
Jan 11 21:04:39 Xen3 kernel: [   28.672187] JBD2: Spotted dirty metadata buffer (dev = sda1, blocknr = 0). There's a risk of filesystem corruption in case of system crash.
Jan 11 21:04:40 Xen3 kernel: [   30.006183] EXT4-fs error (device sda1): ext4_mb_generate_buddy:747: group 0, block bitmap and bg descriptor inconsistent: 20178 vs 20418 free clusters
Jan 11 21:04:40 Xen3 kernel: [   30.298620] JBD2: Spotted dirty metadata buffer (dev = sda1, blocknr = 0). There's a risk of filesystem corruption in case of system crash.
...
Jan 11 21:06:58 Xen3 kernel: [  167.910051] EXT4-fs (dm-7): mounted filesystem with ordered data mode. Opts: (null)
...
Jan 11 21:07:05 Xen3 kernel: [  174.878426] CIFS VFS: Error connecting to socket. Aborting operation.
Jan 11 21:07:05 Xen3 kernel: [  174.878455] CIFS VFS: cifs_mount failed w/return code = -113
Jan 11 21:07:11 Xen3 kernel: [  181.022372] CIFS VFS: Error connecting to socket. Aborting operation.
Jan 11 21:07:11 Xen3 kernel: [  181.022401] CIFS VFS: cifs_mount failed w/return code = -113
...
Jan 11 21:09:37 Xen3 kernel: [  326.877130] EXT4-fs (sda1): error count since last fsck: 343
Jan 11 21:09:37 Xen3 kernel: [  326.877168] EXT4-fs (sda1): initial error at time 1600423846: ext4_lookup:1578: inode 196609
Jan 11 21:09:37 Xen3 kernel: [  326.877190] EXT4-fs (sda1): last error at time 1610388280: ext4_mb_generate_buddy:747
...
Jan 11 21:19:12 Xen3 kernel: [  901.356525] EXT4-fs error (device sda1): ext4_lookup:1578: inode #196672: comm systemd-tmpfile: deleted inode referenced: 205163
Jan 11 21:19:12 Xen3 kernel: [  901.373527] EXT4-fs error (device sda1): ext4_lookup:1578: inode #196672: comm systemd-tmpfile: deleted inode referenced: 205161

15
Unix / Ошибка установки Proxmox на Debian
« : 07 Декабря 2020, 16:02:45 »
Возможно, конфликт с чем-то из того, что уже стоит.
Ну только же поставил систему - ничего нет. Даже mc и net-tools не ставил.

Страницы: [1] 2 3 ... 22