У статті розглянуто еволюцію методів і технологій роботи щодо прийняття рішень посадовими особами в умовах використання ними можливостей ситуаційного управління в режимах: «індивідуальному», «інформаційної верстки», «інтелектуальних систем»; впровадження штучного інтелекту (ШІ). Розглянуті проблеми та недоліки різних моделей управління. Розкриті вимоги до інтелектуалізації електронних обчислювальних машин (ЕОМ). Показано, що впровадження хмарних технологій та аналітики великих даних ще більше розширили операційні можливості систем ситуаційного управління. Ключові тенденції, включаючи інтеграцію машинного навчання і ШІ, впровадження передових сенсорних технологій і розробки мережевих комунікаційних систем для безперебійного обміну інформацією в мережі ситуаційних центрів, розширили операційні можливості систем ситуаційного управління. Доведена необхідність впровадження ШІ, який буде ставати одним з основних напрямів розвитку систем підтримки прийняття рішень. Також розглянуто можливість та обґрунтовано необхідність використання агентів ШІ в системах ситуаційного управління. Агент ШІ — це інтелектуальна система, призначена для сприйняття навколишнього середовища, прийняття рішень та виконання дій із наміром досягти певної мети. Агенти ШІ являють собою зміну парадигми традиційних розрахунків. Це не просто інструменти, які ми використовуємо, а інтелектуальні партнери, що можуть навчатися, адаптуватися та вирішувати проблеми разом із нами. Концепція агентів ШІ не нова, але новітні технологічні досягнення перетворили їх із теоретичних конструкцій у могутні практичні інструкції. Описана перетворююча технологія будівельних блоків агентів ШІ та великої мовної моделі дає змогу розуміти, як вони служать «мозком» для агентів штучного інтелекту. Іл.: 6. Бібліогр.: 5 назв.
У статті представлено аналіз процесів розвитку технологій штучного інтелекту (ШІ) у світі й в Україні та його зв’язок з безпекою на основі ризик-орієнтованого підходу. Розглядаються новітні досягнення, коротко зміст технології, стан впровадження стандартизації та нормування процесів розвитку технології, можливі ризики життєдіяльності людини та їх особливості у нашій державі. Участь у процесі наукових установ України, зокрема НАНУкраїни, державне регулювання, державно-приватне партнерство, діяльність приватних фірм та можливості застосування технології ШІ у сфері безпеки. Стаття є оглядовою, тому містить багато цитованого матеріалу. Наводяться дані про поширення технології в Україні у різних сферах життєдіяльності, короткі дані про основні державні організації та підприємства, які займаються впровадженням ШІ, дані про деякі приватні підприємства та державно-приватне партнерство у цьому напрямі. Разом з тим автори звертають увагу на те, що переважна більшість робіт із цієї тематики належить до приватного бізнесу, який у своїй більшості заснований іноземними компаніями, а також на значне відставання офіційної науки, НАН України тощо. Фокусується увага на тому, що неналежна увага (у порівнянні з передовими країнами) приділяється питанням безпеки як безпосередньо технології ШІ, так і новим процесам діяльності за участю ШІ. Детально аналізується небезпека деяких приватних підприємств щодо використання ШІ у псевдонауковій сфері, так званої допомоги у створенні наукових статей та підвищенні наукового статусу вчених, освіті тощо. Автори бачать у цьому явище не тільки таке, що порушує етику наукової доброчесності, але й катастрофічний ризик для держави у цілому. Аналізується стан впровадження стандартів та законів, наводяться напрями розробки програмного забезпечення у сфері безпеки з використанням ШІ та хмарних технологій тощо. Пропонується прискорити впровадження технології та міжнародних нормативних документів на державному рівні з координацією НАН України.Іл.: 4. Бібліогр.: 32 назв.
Самовідновлення є надзвичайно важливою властивістю великих систем на національному, міжнародному та навіть глобальному світовому рівнях. Оскільки будь-які системи, особливо великі та розподілені, часто можна представити у вигляді мережі з вузлами, їх компонентами та зв’язками як комунікаціями між ними, відновлення будь-яких систем можна розглядати насамперед як відновлення їх мережевих структур. І для цього відновлення часто може знадобитися використання здебільше внутрішніх системних ресурсів із мінімальним зовнішнім втручанням, доповненням або контролем, оскільки в інших системах також можуть виникнути різні проблеми, і вони не зможуть ділитися своїми ресурсами. У статті досліджено та детально показано, як розроблена модель та Технологія просторового захоплення (ТПЗ) з її рекурсивною Мовою просторового захоплення (МПЗ) можуть організувати розподілені мережі будь-яких обсягів і топологій, щоб бути справді самовідновлюваними та фактично «безсмертними». Стаття пропонує універсальне рішення, де всі мережеві вузли, будучи потенційно активними, можуть спільно проводити аналіз мережі на корисну глибину від кожного з них та обмінюватися результатами, згодом надаючи кожному вузлу повний опис всієї мережі, а потім використовувати цей опис для колективного відновлення всієї мережі від будь-яких пошкоджень, якщо хоча б один вузол ще залишається живим. Це рішення використовує просторово керовану унікальну гнучкість ТПЗ, подібну до супервірусу, та самовідтворення сценаріїв МПЗ, які вільно переміщуються між вузлами мережі, використовуючи лише локальні зв’язки між ними. Стаття також містить практичні рекомендації щодо використання запропонованого рішення для самовідновлення дуже великих мереж, а також, як додатково залучати інші критичні інфраструктури у разі складних криз і проблем у соціальних системах. Іл.: 7. Бібліогр.: 29 назв.
У роботі проведено визначення особливостей вирішення простих арифметичних задач із логічною складовою за допомогою чат-ботів із генеративним штучним інтелектом. Як такий чат-бот розглянуто Copilot. Виявлено, що при поглибленні чи уточненні запиту ймовірність отримання вірної відповіді зменшується, бо розширення параметрів запиту призводить до виникнення погрішностей при формуванні відповіді. Подібна проблема дійсно існує і називається обмеженнями великих мовних моделей у математичних розмірковуваннях. Запит користувача і пошук інформації на питання відбувається нелінійно. Користувачі змінюють, доповнюють запити, що лише погіршує кінцеву відповідь чат-боту. Для мінімізації виникнення подібних погрішностей і неточностей пропонується використовувати підхід з нелінійною Z-апроксимацією. Враховуючи, що Z-перетворення базуються на адаптивних алгоритмах та здатні змінювати структурні особливості цих алгоритмів, то при кожній ітерації за таким алгоритмом буде відбуватися наближення до деякої точки, що містить вірну відповідь, а не віддалятися за межі області пошуку. У цьому випадку поведінку користувача, який додає до чат-боту з генеративним штучним інтелектом нові обмеження та уточнення до задачі, можна описати через рекурентні співвідношення породжуваних дрібно-раціональних апроксимацій. У підсумку це дозволяє побудувати напрям руху до вірної відповіді з обмеженням несуттєвих для розуміння задачі зауважень. Запропонований алгоритм дозволяє виконати такі обчислення для дій користувача, що описуються основними тригонометричними функціями. Алгоритм апробований для функцій sin х, cos х, tgx, arctgx мовою програмування Python із застосуванням бібліотеки TensorFlow. У підсумку алгоритм дозволив отримувати вірне рішення задачі, проте зафіксовано збільшення часу виконання завдання при ускладненні логічних умов. Іл.: 6. Бібліогр.: 16 назв.
Стаття присвяченавирішенню проблеми кібербезпеки корпоративної ІТ-інфраструктури за допомогою використання концепції операційних центрів безпеки. Для сучасних SOC (SecurityOperationsCenter) основна технологія моніторингу виявлення загроз і реагування базується на системах SIEM (SecurityInformationandEventManagement), які об’єднують інформацію про події від усіх інструментів безпеки і мають багато спільного з системами LMS (LogManagementSystem). У цілому системи LMS і SIEM орієнтовані на різні задачі, але мають спільну інформаційну базу у вигляді даних журналів і частково перетинаються у можливостях виконання функцій моніторингу безпеки. Стаття наводить огляд наявних freeopensource інструментів реалізації функцій сучасних SIEM у прив’язці до типових процесів SOC і сумісного функціонування з LMS. У статті розглядаються функції і типові процеси SOC. Належна інструментальна основа реалізації процесів представлена еволюційною схемою розвитку SIEM, запропонованою фірмою Gartner. Відсутність безоплатної повнофункціональної платформи SIEM в існуючих і очікуваних пропозиціях лідерів сучасного ринку відповідного програмного забезпечення (за магічним квадрантом Gartner-2024) обґрунтовує обмеженість можливостей вирішення поставленої задачі використанням наявних окремих інструментів — їх адаптації, поступового розвитку й інтеграції в рамках єдиної платформи. Проведено огляд доступних джерел щодо наявних freeopensource інструментів реалізації базових функцій SIEM і платформ IRP, SOA, TIP, UEBA, які, на думку авторів, насамперед заслуговують на увагу в контексті поставленої задачі. Відзначається, що на фоні величезної кількості платних інструментів доля безоплатних достатньо велика, і в кожній номінації схеми Gartner є відповідні пропозиції. Для першого етапу створення повнофункціональної SIEM пропонується рішення інтеграції ELK-OSSIM із подальшим поступовим розвитком і інтеграцією компонентів SOA–SOAR. Таке рішення має на першому етапі забезпечити виконання функцій оцінки вразливостей, виявлення вторгнень, кореляції подій, поведінковий моніторинг, розвідку загроз, довгостроковий інтелектуальний аналіз та ін. Іл.: 5. Бібліогр.: 23 назв.
Інженерія вимог є одним із визначальних процесів інженерії систем. Інтенсивний розвиток та поширення систем інтернету речей (Internet of Things, ІоТ) потребує розроблення інформаційного та методичного базисів для їх розробки, особливо на етапі визначення вимог. Складність, неоднорідність, конвергентність систем ІоТ обумовлюють відповідні проблеми на всіх етапах їх проєктування, в тому числі і на етапі визначення вимог. Процес визначення системних вимог перетворює погляд зацікавлених сторін на бажані можливості та технічне уявлення розробника про те, як система може досягти цих можливостей. Системні вимоги описують вимоги, які повинні відповідати цільовій системі, щоб задовольнити потреби зацікавлених сторін, і виражаються у відповідній комбінації добре сформованих текстових заяв і допоміжних моделей або діаграм. Розробка систем IoT пов’язана з вирішенням проблем, обумовлених конвергентним та адаптивним характером таких систем, що визначають їх складність. Урахування адаптивної природи систем IoT на ранніх етапах життєвого циклу розробки має важливе значення для розробки повної та точної специфікації цільової системи. Існує багато аспектів систем IoT: програмне забезпечення, апаратне забезпечення, мережа в контексті середовища. Програмне забезпечення є основою обробки інформації в системах ІоТ. Програмне забезпечення контролює систему та забезпечує взаємодію між системою та середовищем, обладнанням та мережею. Апаратне забезпечення містить фізичні об’єкти або пристрої, які є частиною системи IoT і мають бути конкретизовані на етапі вимог, щоб забезпечити врахування особливостей взаємодії з апаратним забезпеченням. Мінливість середовища обумовлює невизначеності у роботі. Система IoT має бути розроблена у такий спосіб, щоб враховувати невизначений характер середовища, в якому система працює. В статті проведено аналіз підходів та засобів управління вимогами з урахуванням контексту систем інтернету речей. Іл.: 3. Бібліогр.: 36 назв.
Останні кілька років стали рекордними для кіберзлочинців, які завдали шкоди організаціям за допомогою різноманітних шкідливих програм. Превентивне запобігання атаці є найкращим захистом, а багато рекомендацій наголошують на важливості наявності для організації правильної стратегії резервного копіювання даних. Однак, з урахуванням зростання складності та різноманітності ІТ-систем і кіберзагроз, сьогодні непросто вибрати ефективну стратегію резервного копіювання даних, яка б захищала всі критично важливі дані організації і зводила до мінімуму втрату даних та час простою. Тому у статті розглядається питання вибору ефективної стратегії резервного копіювання та відновлення даних. Як така стратегія пропонується стратегія «3-2-1-1-0», в основі якої знаходиться концепція «повітряного зазору» або «повітряної ізоляції», що передбачає наявність бар’єру, зведеного між самими даними резервного копіювання та доступом до цих даних.Це додаткова функція захисту даних, що використовується для ізоляції та відключення цільових пристроїв зберігання від незахищених мереж, виробничих середовищ і хост-платформ. Основними перевагами використання цієї стратегії є захист від програм-вимагачів та інших шкідливих програм, оскільки резервні копії недоступні з сервера резервного копіювання або іншого місця в мережі. Резервні дані залишаються в автономному режимі та захищені від таких атак завдяки ізольованому сховищу, забезпечуючи у такий спосіб ще й довгострокове збереження даних. Незмінність резервних копій є найважливішою складовою надійної стратегії захисту даних.Об’єднавши її з ізольованим сховищем, організації можуть підвищити безпеку та цілісність своїх резервних копій, гарантуючи, що дані залишаються у безпеці від онлайн-загроз, забезпечуючи високий рівень захисту.Оскільки цифрове середовище продовжує розвиватися, потреба в незмінних резервних копіях із ізольованим сховищем стає все більш очевидною як для організацій, так і для державних установ та відомств. Бібліогр.:3 назв.
Україна має один із найбільш високих показників родючості у світі. Проте для забезпечення максимальних урожаїв при вирощуванні сільськогосподарських культур важливою складовою є постійний моніторинг агробіологічного стану під час всього періоду вирощування сільськогосподарських культур, до посівів та після збору врожаю. Це дає можливість оптимізувати норми внесення технологічних матеріалів, а відповідно, мінімізувати витрати на вирощування сільськогосподарських культур. Реалізація постійного моніторингу агробіологічного стану сільськогосподарських угідь є важливим елементом сучасного сільськогосподарського виробництва й можлива з використанням широкого спектра пристроїв інформаційно-технічних систем моніторингу агробіологічного стану сільськогосподарських угідь наземного, повітряного та космічного базування на різних етапах вирощування сільськогосподарських культур. У результаті маємо великі масиви даних, які вимагають оперативної їх обробки, візуалізації, представлення для роботи з цими масивами даних та прийняття оперативних рішень для ефективного керування технологічними операціями. Саме тому для роботи з великими масивами даних розроблено методику кластерного аналізу даних інформаційно-технічної системи точного землеробства агробіологічного стану біорізноманіття сільськогосподарських угідь. Запропонований програмний код дозволяє забезпечити диференційоване внесення технологічного матеріалу (насіння, добрив, засобів захисту рослин тощо) на основі даних моніторингу з використанням інформаційно-технічних систем оперативного моніторингу агробіологічного стану сільськогосподарських угідь. За попередніми розрахунками, володіння такою інформацією дозволить на 10–25% зекономити технологічний матеріал і сприятиме підвищенню врожайності сільськогосподарських культур на 10–20 ц/га. Іл.: 1. Бібліогр.: 12 назв.
У роботі виконується дослідження взаємозв’язку між різними групами показників якості регресійної моделі. Розглядаються три групи показників: статистичні, показники точності апроксимації відповідно до вимог технічних застосувань, теоретичні відносно коефіцієнтів регресії. Статистичні показники використовуються тільки ті, що найбільш поширені в прикладних дослідженнях (хоч їх замало для обґрунтованої оцінки якості регресійного рівняння), а саме: залишкова дисперсія і множинний коефіцієнт кореляції. Як оцінки точності апроксимації використовуються ті, що найчастіше висуваються як критерії адекватності в технічних застосуваннях: середнє відносне відхилення моделі від експериментальних даних, максимальне відносне відхилення, середнє абсолютне відхилення, максимальне абсолютне відхилення. Крім того, розглядається різниця між значеннями коефіцієнтів кореляції і їх оцінками. Для охоплення можливих варіантів, в яких виконується побудова моделі, дослідження проводились у таких умовах: а) відповідність усім передумовам регресійного аналізу; б) відповідність усім передумовам регресійного аналізу при наявності великого розсіяння (великої дисперсії відтворюваності); в) наявність гетероскедастичності; г) наявність викидів (із різним розміщенням і різною кількістю в навчальній вибірці). Встановлено, що при виконанні передумов і припущень регресійного аналізу різниця при застосуванні різних методів несуттєва з прикладної точки зору для показників усіх груп. При великому розсіянні і гетероскедастичності методи з метою отримання найкращих відносних показників дають значне покращення своїх характеристик при значному погіршенні всіх інших характеристик. Розроблені рекомендації для вибору методів у залежності від особливостей даних і вимог до характеристик моделі. Табл.: 10. Іл.: 7. Бібліогр.: 17 назв.
Стаття присвячена розробці та впровадженню системи моніторингу якості атмосферного повітря в реальному часі, яка базується на сучасних інформаційних технологіях. У дослідженні акцентується увага на використанні протоколу MQTT для ефективної передачі даних, фреймворку Django для створення серверної частини та Celery для асинхронної обробки задач. Особливістю системи є її модульна архітектура, яка забезпечує високу масштабованість та можливість адаптації до зростаючих вимог. Детально розглянуто алгоритми обчислення індексів якості повітря AQI та CAQI, що дозволяють оперативно аналізувати рівень забруднення атмосфери. Для обробки великих обсягів екологічних даних застосовуються методи оптимізації зберігання, зокрема, агрегація середніх, мінімальних та максимальних значень. Це сприяє зменшенню обсягів збереженої інформації, підвищенню швидкодії та ефективності системи. Система отримує дані з різних джерел, зокрема, датчиків IoT, відкритих API та MQTT-серверів, що дозволяє забезпечити комплексний моніторинг якості повітря у міських і промислових зонах. Для забезпечення доступу до інформації користувачам пропонується інтерактивний вебінтерфейс із дашбордами, які дозволяють переглядати дані у реальному часі, аналізувати історичні тренди та отримувати повідомлення у випадку перевищення граничних рівнів забруднення. У статті підкреслюється важливість впровадження інноваційних технологій та постійного вдосконалення методів моніторингу. Зокрема, це включає впровадження адаптивних алгоритмів для автоматизації процесів збору та аналізу даних, інтеграцію з новими типами датчиків та покращення обробки великих обсягів інформації. Такі підходи спрямовані на підвищення точності, актуальності екологічних даних і створення надійної основи для ефективного вирішення екологічних проблем, що виникають у зв’язку з глобальним забрудненням атмосфери. Іл.: 5. Бібліогр.: 8 назв.
Асиміляція даних (DA) є важливою задачею в прогнозуванні забруднень, оскільки вона дозволяє інтегрувати спостереження з моделями, покращуючи точність прогнозів поширення забруднювачів в атмосфері, океані та на суші. Це особливо важливо для оцінки впливу аварійних викидів і управління екологічними ризиками. У статті здійснено огляд та порівняння чотирьох різних методів асиміляції даних у задачі розповсюдження забруднень після аварійних викидів. Методи містять у собі ансамблевий фільтр Калмана (EnKF), ансамблевий згладжувач (ES) та два нових підходи, що базуються на композиції з машинним навчанням (ML). Обґрунтовано математичну складову та проаналізовано переваги і недоліки кожного з них. Ансамблеві методи асиміляції даних, зокрема EnKF, є обчислювально ефективними та можуть давати хороші результати навіть у нелінійних моделях. Вони потребують менше ресурсів порівняно з класичними методами, зберігаючи важливу інформацію при обмеженому розмірі ансамблю. Однак їхнім недоліком є гаусове наближення, що може призвести до числових нестабільностей і нефізичних результатів у задачах із негаусівським розподілом. Крім того, необхідність численних перезапусків може збільшити обчислювальні витрати. Альтернативою є ES, який не потребує рекурсивних оновлень і скорочує час моделювання, але може давати гірші результати в деяких задачах, хоча його обчислювальна ефективність вища. Розглянуто два гібридних методи, що поєднують асиміляцію даних із машинним навчанням: перший полягає в корекції тенденцій або резольвенти, що має композиційну природу і показує кращі результати на типових задачах у порівнянні з аналогічними методами без корекцій, другий полягає в нейронній мережі з нестандартною функцією втрат. Обидва методи продемонстрували здатність коригувати модельні похибки та враховувати зміщення в прогнозах. Гібридні підходи, що комбінують традиційні методи асиміляції з машинним навчанням, забезпечують високу точність, знижуючи кількість циклів DA-ML. Іл.: 4. Бібліогр.: 30 назв.
Стаття присвячена актуальній проблемі покращення зручності та ефективності здійснення покупок у гіпермаркетах. Наразі існує небагато рішень, які можуть допомогти при традиційному шопінгу. Труднощі з пошуком товарів, масштабність магазинів і незрозуміле розташування відділів створюють дискомфорт для клієнтів, що може знижувати рівень задоволеності покупців та негативно впливати на продажі. У роботі авторами запропоновано створення вебзастосунка, який допоможе вирішити ці проблеми шляхом автоматизації пошуку товарів і підвищення зручності навігації у великих торгових просторах. Також було проведено опитування покупців гіпермаркетів, щоб представити статистику даної проблеми. У рамках дослідження проведено аналіз предметної області, порівняльний аналіз існуючих рішень і методів, а також визначено основні зацікавлені сторони, щоб визначити ключові задачі застосунка. Для вирішення поставленої задачі обрано ймовірнісну модель BM25, яка забезпечує ефективний інформаційний пошук. Визначено перспективи вдосконалення функціонала застосунку шляхом впровадження рекомендаційної системи, що дозволить запропонувати покупцям товари, які відповідають їхнім уподобанням.Розроблено концептуальну модель предметної області та виконано функціональну декомпозицію задачі. Сформовано бізнес-модель процесів у вигляді eEPC-діаграми для зображення та аналізу процесів, як вони є без вебпомічника для шопінгу. Також здійснено опис функціональних і нефункціональних вимог до майбутнього застосунку, які мають бути враховані при реалізації, а також визначено їхні пріоритети. Запропоноване рішення спрямоване на підвищення рівня комфорту клієнтів, зростання їхньої лояльності та збільшення продажів у гіпермаркетах. Використання розробленого вебзастосунка дозволить оптимізувати процеси пошуку товарів у великих магазинах та орієнтування у великих просторах магазину.Табл.: 2. Іл.: 5. Бібліогр.: 13 назв.
ЯКІСТЬ, НАДІЙНІСТЬ І СЕРТИФІКАЦІЯ ОБЧИСЛЮВАЛЬНОЇ ТЕХНІКИ І ПРОГРАМНОГО ЗАБЕЗПЕЧЕННЯ
Робота присвячена описанню методу підвищення надійності та живучості бортових систем управління. Як об’єкт дослідження обрано клас літальних апаратів — крилаті ракети, які є однією з найперспективніших систем озброєння. У статті проаналізовано сучасні структури бортових систем управління, що забезпечують високу надійність таких систем. Проведено аналіз чотириканальних відмовостійких систем для бортових комплексів управління підвищеної живучості, які забезпечують високу достовірність роботи комплексів протягом тривалого часу без фізичного обслуговування, зберігаючи стійкість до збоїв і відмов апаратури. Також розглянуто її прототип — триканальну систему з виходами синхронізації. Виділено позитивні та негативні сторони таких систем, відзначено високий рівень їх апаратної надлишковості. Для літальних апаратів із коротким терміном служби, якими є крилаті ракети та подібні до них, авторами запропоновано двоканальну квазімісткову структуру (КМС) бортової системи управління з поблоковим резервуванням і реконфігурацією. КМС загалом являє собою систему, що складається з послідовного з’єднання дубльованих вузлів однакової надійності. У разі відмови одного з функціональних субблоків дубльованого вузла схема контролю та реконфігурації виключає його з обчислювального процесу та проводить реконфігурацію структури системи в режимі роботи «Non Stop». Як інструментарій дослідження надійності бортової системи використовувався ймовірнісно-фізичний метод (ВФ-метод), в основі якого лежить дифузний розподіл напрацювання до відмови (DN-розподіл), спеціально формалізований для оцінки та прогнозування надійності електронних, електричних та електромеханічних елементів і систем. При збереженні рівня надмірності, характерного для всіх двоканальних структур, у запропонованій двоканальній резервованій КМС декомпозиція каналів на однаково надійні дубльовані вузли приводить до зростання ймовірності безвідмовної роботи системи (R-ефект), що стає більш помітним із збільшенням кількості вузлів. У роботі також описано принцип розміщення функціональних субблоків КМС, який забезпечує додатковий ефект — підвищення живучості системи в цілому. Іл.: 5. Бібліогр.: 10 назв.