Просмотр сообщений

В этом разделе можно просмотреть все сообщения, сделанные этим пользователем.


Темы - Gekko

Страницы: [1] 2 3 ... 8
1
Вопрос скорее правовой и филосовский, но раз уж есть раздел Windows...
Недавно одна дружественная фирма наконец обзавелась саппортом, и я одним ухом послушал, одним полужепием посидел на совещании, где представитель сапорта обещал перевести всех на Linux поставить всем Windows Server и домен и терминалки и черта в ступе... На резонный вопрос "А как с лицензиями?" представитель на голубом глазу заявил - "Так Микрософт то ушла - кто лицензии проверять то будет?" Я вот немножечко так приафигел - то есть Микрософт уходит и все свои претензии на правообладание забирает? И статью может быть отменяет в нашем кодексе? Я вот что то так думаю, что микрософт то уйдет, а статья в общем то останется. И менты из отдела К никуда не денутся, и денег и медалек им не расхочется.
Я в свое время повидал такие истории, когда еще вчера всем было поуху и на западе у нас притаились злобные враги, и по этому пиратить их софт - дело чести. А сегодня вдруг наши верховные предприниматели с ними в дёсны жахаются и мы уже закон нарушаем.
Не спорю - может быть год-другой никто ничего и не спросит. Но потом опять всем захочется зарубежного бабла и венгерских гарнитуров, и все вернется в зад - опять неожиданно заработает банхамер.
После совещания подошел к директору и попробовал его на этот счет вразумить, но у того такой блеск в глазах в предчувствии халявы, что разумеется он меня и слушать не стал.

2
Unix / Поставить мс на старую Freebsd...
« : 22 Апреля 2022, 01:45:17 »
А откуда можновзять для старой FreeBSD пакет с MidnightCommander? Ни из сырцов ни dpg уже не установить - говорит поддержка этой версии системы кончилась.

3
Networks / Недополученный по DHCP адрес.
« : 21 Апреля 2022, 16:40:24 »
В начале недели из сети пропал один XenServer. У ксена назначается менеджмент интерфейс, и вот он вроде стоит статичный, но его не видно. Интерфейс торчит в сетку с DHCP сервером, и когда я переключаю его на получение по DHCP, то адрес получается, пишет succesfull, но не пингует и не пингуется.
С сервера, который выдал ему адрес вот такая вот картина:
Цитировать
[root@gate ~]# arp -a | grep 192.168.20.180
? (192.168.20.180) at <incomplete> on eth2

4
Software / 1С и блокировка файлов базы.
« : 30 Марта 2022, 13:17:29 »
Сегодня позвонили с одной конторы и попросили сделать восстановление базы из ближайшего бэкапа - им приходящий програмач ОдинЭс снес своими програмазмами все настройки.
Ну не беда - полез в бэкапы, а там - шиш. Должен был в полночь отработать батник с запуском 7zip'а, но именно вчера не отработал. В каталоге есть какой то заблокированный файл exec.lck и он не дает выполнить копирование базы. И главное на момент выполнения бэкапа все компы были выключены, в особенности тот, который файл заблочил.
Вопрос собственно: а как сбросить все эти блокировки перед резервным копированием? С утра по факту лезть в ММС в файловые сеансы - как бы уже поздно. Может как из консоли можно поотрубать все незаконченные соединения? Вставить в батник в начале строчку и алга.

5
Software / 1c Новая УТ и шквал ошибок...
« : 19 Января 2022, 10:32:41 »
С нового года в авральном порядке все наши филиалы кинулись обновлять свою древнюю УТ 10й версии на актуальную 11.5. Потому как - ах какая неожиданность, нам уже несколько лет обещали несоответствие новым правилам торговли.
У большинства - файловые сервера и базы файловые. Есть варианты, где работают и по два пользователя в файловой, и по десять, но работает стабильно. С тормозами, но стабильно.
И есть один филиал, где с новой базой одни проблемы: только я ее кладу на сервер, только пропишу четырем пользователям - через три четыре часа база лежит. Каким то пользователям не зайти, каких то начинает выкидывать с ошибкой "база повреждена", из конфигуратора ничего не выгрузить и ТИС не запустить - тоже выпадает с ошибкой "файл базы поврежден"...  Тис запускается только chdbfl.exe и выдает штук 50 ошибок.
 И вот такая чехорда с ними уже с начала года: Ставлю базу - через день звонят и говорят, что  "ничивониработаит". Прогоняю ТИС - говорят, что "все заведенные контрагенты исчезли и вопще всёпрапала". Формирую им новую базу из шаблона - через день звонят и говорят, что "ничивониработаит".
Что они там с ней делают? Как они умудряются ее с такой скоростью ломать - я не знаю. Грешил на NAS, но с него еще четыре базы работают и куча файловой помойки на нем лежит и за пять лет никто не жаловался.

6
Windows / WinServer2022 - публикация приложений
« : 13 Декабря 2021, 15:01:55 »
Поднял сервер RemoteApp на ВинСервере и столкнулся с такой проблемой - при публикации приложений на страничку RDWeb там появляется ссылка на скачивание .rdp файла. Но в нем стоят установки по умолчанию. Вопрос: можно ли задать параметры с которыми будет публиковаться этот файл?
Объясню: Вот у меня сервер называется remoteapp-server.company.local. В локальной сети он известен по имени remoteapp-server, но никто не знает ни про какой домен company.local. В публикуемом .rdp прописано:
Цитировать
full address:s:REMOTEAPP-SERVER.COMPANY.LOCAL
...поэтому при первоначальном соединении вылезает ошибка - "нет такого сервера".
Ну и там до кучи еще пару параметров бы поменять, что бы локальные диски редиректились в сессию. В общем хотелось бы как то отредактировать эти параметры на сервере, что бы мне каждому клиенту в ручную не настраивать все эти параметры.
Небольшая ремарочка: домен - стенделон, то есть он хранит только РДП-пользователей и больше ничем не занимается. Соответственно файл .rdp запускается на локальных машинах.
Теоретически я могу на шлюзе прописать соответствие полного имени сервера ip-адресу...  ???

7
Hardware / SSHD Гибридные винты.
« : 21 Октября 2021, 15:50:39 »
Лет 5 назад закупились мы по полной гибридными Файркудами двухтерабайтными. И больше половины из них вылетели из сереверов еще до гарантийного срока. Пожалуй  - худшая статистика из всех известных мне моделей.
Тепереь вот собираю новый сервер, а в нвличии дисков нифига нет (ну сейчас практически ничего нет). Есть в резерве у поставщика шесть штук 2 терабайтных sas Exos. И чего то очень не хочется опять брать гибриды у Сигейта.

8
Есть два варианта собрать 1с сервер на 10-12 бухгалтеров разбросанных по удаленным филиалам. Филиалы на удаленке по 20Мбит каналам, работают с примерно двадцатью базами максимум по два человека в каждой. Учитывая, что они далеко и на 20Мбитах - вариант сервера-файлопомойки с файловыми базами отпадает - тормозно и глючно. По этому остается два варианта:
1) RDP-Server на Win2019 Standart + 12 CAL + 12 RDP CAL - дорага-багато! Но дорого... Но богато, в смысле возможностей на вырост больше.
2) SQL-Server на Win2019 Esentials + 1C Server + SQL Server Runtime по программе дистрибьютеров 1с. Ну тут я не помню - под рантайм версию нужно приобретать SQL Cal или нет, но все равно на сотню дешевле выйдет. И у Esentiales ограничение по оперативке - 64Гб, боюсь как бы SQL тесно не было...

9
Чего то пока не сообразил - как это реализовать: нужна внутренняя гостевая сеть с доступом только в и-нет, без возможности лазать по локалке.
Есть внутренняя сеть 172.16.0.0/16 со шлюзом 172.16.0.1.
Внутри сети решено отгородить роутером (mikrotik) небольшую сетку для всяких приезжих с доступом в инет.
Вопрос: как заблокировать хождение пакетов в 172.16.0.0 при этом не запрещая обращение к шлюзу 172.16.0.1?
Пока думаю - поставить три правила одно за другим:
1) accept входящих-исходящих на адрес шлюза
2-3) drop всех входящих-исходящих подсети 172.16.0.0.
Я не очень хорошо знаю микротик, но может там есть какие то штатные методы капсуляции? Сразу оговорюсь - огородить нужно будет весь трафик с этого микротика, не только Wi-fi.


Updated: 04 October 2021, 13:36:24

Добавил поверх всего списка правил во вкладке FilterRules
Как то больно просто, но вроде пока работает...

10
На старинном Пролианте Г5 развалился в процессе ребилда массив RAID10. С него пропали все тома, остался только один большой неразмеченный том. Систем разумеется теперь с него не грузится и по моему - все пропало...
Сейчас зашел в ORCA массива и вижу там такую картину:
ila_rendered
Logical Drive # 1, RAID 1+0, 931.5 GB, RECOVERING.
В массиве все диски чувствуют себя хорошо - стоит статус ОК.
ila_rendered
Я вот уже сутки жду когда этот RECOVERING закончится, но что то конца и края нет.

В Inspect Utility висит последнее после пеерезагрузки сообщение: 1778-Drive Array Resuming Automatic Data Recovery Process.
Troubleshuting Guide читаем:
Цитировать
1778-Drive Array Resuming Automatic Data Recovery Process
Audible Beeps: NonePossible
Cause: A controller reset or power cycle occurred while Automatic Data Recovery was in progress.
Action: No action is required.
???

11
Software / Outlook: Уведомления о прочтении...
« : 24 Августа 2021, 11:37:23 »
Снова про Аутглюк.  :facepalm2:
Настроил почту на общий ящик, в папку "Входящие" насыпалось несколько тысяч писем с отметкой "непрочтенные". Тыркаем на нее "ометить все как прочтенные" и получаем невидимую очередь из нескольких тысяч уведомлений о прочтении и нерабочий Аутлук, занятый на несколько суток...
Вопрос: как этим можно управлять? Как отменить отправку уже поставленных в очередь уведомлений? Я конечно могу просто грохнуть почтовый аккаунт, создать заново, отключить в настройках отправку уведомлений и заново отметить "как прочитанное". Но как это сделать без удаления учетки?

12
Windows / NTFS права на Win2008...
« : 02 Марта 2021, 13:39:09 »
Есть сервер 1с с РДП доступом и файловых баз штук 10. Решил разделить всем доступ по группам. Для начала попробовал отменить доступ группам "Пользователи" и "Пользователи РДП" на родительский каталог - каталог стал вообще недоступным. Вообще для всех. Даже для "Администратора". И как это получилось, позвольте спросить, если пользователь Администратор вообще ни каким боком к группе Юзеров не относится, он член единственной группы - "Администраторы" 
Ну ок - вернул все в зад. Попытался удалить полностью группы из списка - винда говорит "Нет нифига, это разрешения наследуются. удалить их тут нельзя" Ну и в результате все имеют доступ ко всем.
Решил для эксперимента сделать полнейший deny для одной групп пользователей на какую нибудь одну папку - не работает.
Хорошо еще что 1с по РДП открывается как удаленное приложение, но стоит только открыть окно добавления новой базы - и получаешь доступ ко всем дискам, кроме системных. Насколько я помню - процесс 1с при РДП запускается от пользователя, так что и права у него пользовательские. Тогда какого рожна он позволяет лазать через окно добавления базы по запрещенным ему дискам, когда есть совершенно четкий запрет группе этого пользака?
PS Что интересно - с группой deny не работает, а вот с отдельными пользователями - работает.


13
XCP-ng 8.1
Непонимаю - что произошло. С понедельника на вторник вырубился XCP-ng, и после этого падения загрузился, но уже без одной виртуалки и у некоторых VM пропали носители...
В логе crit.log на момент падения такие записи:
Цитировать
Jan 11 21:04:39 Xen3 kernel: [   28.535558] EXT4-fs error (device sda1): ext4_mb_generate_buddy:747: group 54, block bitmap and bg descriptor inconsistent: 29506 vs 29507 free clusters
Jan 11 21:04:40 Xen3 kernel: [   30.006183] EXT4-fs error (device sda1): ext4_mb_generate_buddy:747: group 0, block bitmap and bg descriptor inconsistent: 20178 vs 20418 free clusters
Jan 11 21:19:12 Xen3 kernel: [  901.356525] EXT4-fs error (device sda1): ext4_lookup:1578: inode #196672: comm systemd-tmpfile: deleted inode referenced: 205163
Jan 11 21:19:12 Xen3 kernel: [  901.373527] EXT4-fs error (device sda1): ext4_lookup:1578: inode #196672: comm systemd-tmpfile: deleted inode referenced: 205161

В kernel.log при подъеме сервера проскакивают среди лога загрузки такие строчки:

Цитировать
Jan 11 21:04:37 Xen3 kernel: [   24.557735] FAT-fs (sda4): Volume was not properly unmounted. Some data may be corrupt. Please run fsck.
Jan 11 21:04:37 Xen3 kernel: [   25.182511] EXT4-fs (sda5): mounting ext3 file system using the ext4 subsystem
Jan 11 21:04:37 Xen3 kernel: [   25.195015] EXT4-fs (sda5): mounted filesystem with ordered data mode. Opts: (null)
...
Jan 11 21:04:39 Xen3 kernel: [   28.535558] EXT4-fs error (device sda1): ext4_mb_generate_buddy:747: group 54, block bitmap and bg descriptor inconsistent: 29506 vs 29507 free clusters
Jan 11 21:04:39 Xen3 kernel: [   28.672187] JBD2: Spotted dirty metadata buffer (dev = sda1, blocknr = 0). There's a risk of filesystem corruption in case of system crash.
Jan 11 21:04:40 Xen3 kernel: [   30.006183] EXT4-fs error (device sda1): ext4_mb_generate_buddy:747: group 0, block bitmap and bg descriptor inconsistent: 20178 vs 20418 free clusters
Jan 11 21:04:40 Xen3 kernel: [   30.298620] JBD2: Spotted dirty metadata buffer (dev = sda1, blocknr = 0). There's a risk of filesystem corruption in case of system crash.
...
Jan 11 21:06:58 Xen3 kernel: [  167.910051] EXT4-fs (dm-7): mounted filesystem with ordered data mode. Opts: (null)
...
Jan 11 21:07:05 Xen3 kernel: [  174.878426] CIFS VFS: Error connecting to socket. Aborting operation.
Jan 11 21:07:05 Xen3 kernel: [  174.878455] CIFS VFS: cifs_mount failed w/return code = -113
Jan 11 21:07:11 Xen3 kernel: [  181.022372] CIFS VFS: Error connecting to socket. Aborting operation.
Jan 11 21:07:11 Xen3 kernel: [  181.022401] CIFS VFS: cifs_mount failed w/return code = -113
...
Jan 11 21:09:37 Xen3 kernel: [  326.877130] EXT4-fs (sda1): error count since last fsck: 343
Jan 11 21:09:37 Xen3 kernel: [  326.877168] EXT4-fs (sda1): initial error at time 1600423846: ext4_lookup:1578: inode 196609
Jan 11 21:09:37 Xen3 kernel: [  326.877190] EXT4-fs (sda1): last error at time 1610388280: ext4_mb_generate_buddy:747
...
Jan 11 21:19:12 Xen3 kernel: [  901.356525] EXT4-fs error (device sda1): ext4_lookup:1578: inode #196672: comm systemd-tmpfile: deleted inode referenced: 205163
Jan 11 21:19:12 Xen3 kernel: [  901.373527] EXT4-fs error (device sda1): ext4_lookup:1578: inode #196672: comm systemd-tmpfile: deleted inode referenced: 205161

14
Unix / Ошибка установки Proxmox на Debian
« : 03 Декабря 2020, 15:59:29 »
Совершенно тупая и неочевидная хня на Дебиане: при установке Proxmox6 на 10й Дебиан вылезает распространенная ошибка про невозможность установить пакет proxmox-ve:
Цитировать
root@prox-test:/etc# apt install proxmox-ve
Reading package lists... Done
Building dependency tree
Reading state information... Done
Some packages could not be installed. This may mean that you have
requested an impossible situation or if you are using the unstable
distribution that some required packages have not yet been created
or been moved out of Incoming.
The following information may help to resolve the situation:

The following packages have unmet dependencies:
 proxmox-ve : Depends: pve-manager but it is not going to be installed
                     Depends: qemu-server but it is not going to be installed
E: Unable to correct problems, you have held broken packages.


Делал по мануалу с https://pve.proxmox.com/wiki/Install_Proxmox_VE_on_Debian_Buster. Все кто сталкивались с данной проблеммой находят решение в правильной настройке /etc/hosts, но я уже все возможные варианты перебрал - и с доменным именем и без, и с .local и без.
В конечном итоге вот что имеем:
hostname - prox-test
domainname - test.ru
Цитата: /etc/hosts
127.0.0.1       localhost.localdomain localhost
172.16.0.75    prox-test.test.ru prox-test
И апдейтил и апгрейдил и перезапускал уже раз пицот - все одно и то же. Даже принудительно загасил IPv6 - не помогло.
Я уже запутался - чяднт?

15
И сам уже неоднократно наступал на эти грабли и другие жалуются: Зачастую уровень LVM абстракции хранения данных бывает лишим. Старые админы, привыкшие работать с "железячными" массивами во время краша системы с использованием LVM с трудом понимают - что собственно происходит и как это фиксить.
Вопрос скорее риторический, но я в последнее время стараюсь не создавать хостов ни с хранилищами в виде LVM-томов.

Страницы: [1] 2 3 ... 8