Szabó Zoltán
Identification of Data Privacy Challenges and Development of Solutions for the Edge Components of the Telemedicine Datapath.
Doktori értekezés, Szegedi Tudományegyetem (2000-).
(2024)
PDF
(disszertáció)
Download (2MB) |
|
PDF
(tézisfüzet)
Download (3MB) |
|
PDF
(tézisfüzet)
Download (3MB) |
Magyar nyelvű absztrakt
Az egészségügy és az informatika integrációja folyamatosan erősödik, ám ez a gyorsuló folyamat újabb és újabb kihívásokat és akadályokat támaszt, amelyek jelentős mértékben megnehezítik az olyan technológiai megoldások kidolgozását, melyek javíthatják a páciensellátás minőségét és megkönnyíthetik az egészségügyi dolgozók munkáját. Disszertációmban bemutatom kutatási eredményeimet, melyeket a telemedicina alkalmazások biztonsága és jogosultságkezelése terén végzett munkám során értem el. Munkámat két részre osztottam, melyek közül az első a felhő és edge computing elemeit kombináló heterogén telemedicina adatútra fókuszál; különösen az edge szegmens két, speciális esetére, a feldolgozó és tároló edge-re, melyek jogosultságkezelés szempontjából kimagaslóan komplex kihívást jelentenek, mivel a felhőtől függetlenül kell érvényesíteniük a hozzáférési szabályokat, hasonló hatékonysággal és minimális késleltetéssel. Formálisan definiáltam egy taxonómiát, melynek révén négy jogosultságkezelési típust határoztam meg az adatút igényeinek lefedésére; hasonlóan tettem a különböző edge típusokkal, illetve egy kutatócsoport tagjaként megvizsgáltam az okostelefon alapú peer-to-peer hálózatok stabilitását és potenciálját, melyek az edge egy speciális esetét képviselik; kidolgoztam egy keretrendszert a Policy Enforcement Point (PEP) koncepciójából kiindulva, mely képes mind a feldolgozó, mind a tároló edge-en megvalósítani a definiált jogosultságkezelési kategóriákat; ehhez a keretrendszer kísérleti implementációkat hoztam létre, melyeken teszteltem a módszertan hatékonyságát; végül kidolgoztam egy nyílt forráskódú szimulációs eszközt, mely képes a betegfolyam modellezésére, és ezáltal validációs paraméterek generálására, melyekkel ellenőrizhető a jogosultságkezelési módszertanom hatékonysága és alkalmazhatósága. Munkám második felében az adatút végén elhelyezkedő frontend alkalmazásokat vizsgáltam. Analitikai szempontból ezek különösen komplex területet képviselnek, ugyanis a frontend keretrendszerek felépítése, illetve az ilyen webalkalmazások dinamikus, nehezen követhető navigációi jelentős mértékben megnehezítették a forráskód statikus elemzésére tett próbálkozásokat. Emiatt kidolgoztam egy saját módszertant, mely a nagy nyelvi modellek (LLM) képességeire építkezve elemzi és azonosítja az alkalmazások forráskódját, azon belül is azokat a szegmenseket, melyek érzékeny, biztonságkritikus adatokkal dolgoznak, és ahol fennáll a veszély ezek kiszivárgására. Ehhez létrehoztam egy formális kategorizálást az adat érzékenységi szintjeinek megkülönböztetésére, mely három szintből áll az alapján, hogy egy potenciális adatszivárgás mekkora károkat okozna, illetve egy másik kategorizálását, mely az alkalmazások komponenseinek védettségi szintjét kvantifikálja. Az érzékenységi taxonómiám validitását a GPT-4 és GPT-3.5 API-k segítségével végeztem, előbb egy változónevekből összeállított szótár, majd véletlenszerűen kiválogatott, nyílt forráskódú webalkalmazások forráskódjai segítségével. Ezt követi a védettségi taxonómia validálása, majd a két kiértékelés eredményeinek összevonásával a potenciál érzékeny adat-szivárgási pontok detektálása.
Absztrakt (kivonat) idegen nyelven
Integration of the healthcare sector and IT is increasing and escalating, but this acceleration is creating new types of challenges and obstacles that can make it extremely difficult to provide cutting-edge solutions that significantly improve patient care and the work of healthcare professionals. In the following dissertation, I present my findings from an analysis of the security and accessibility of telemedicine applications. My work is divided into two parts, with the first thesis focusing on the analysis of a heterogeneous data path integrating cloud and edge computing, specifically on two largely neglected components of the edge, the processing and storage edge types, which pose a unique challenge from the perspective of access and authorization control, as they must enforce access control rules independently of the cloud, with similar efficiency and minimal latency. I present formal definitions of my own taxonomy used to distinguish between access control policy categories; a categorization of the various edge types and an examination of smartphone-based peer-to-peer networks, as a special type of the edge; a framework based on a customized concept of the Policy Enforcement Point (PEP) framework that implements access control principles for both the processing and the caching edges; my results with experimental implementations of the PEP-based framework on processing and storage edges; and finally an open-source, proprietary simulation tool designed to model patient pathways and generate the necessary parameters to validate the access control framework's results. In my second thesis, I examine the security of frontend applications at the conclusion of data paths. This is a challenging area from an analytical standpoint, as the nature of frontend frameworks and the dynamic nature of navigation between components have made static code analysis solutions exceedingly difficult to implement. For this reason, I have devised a novel method for my own research using large language models (LLM) that can identify, based on the static source code of an application, the sections where sensitive, safety-critical data leakage may occur. To accomplish this, I first present my own categorization to differentiate sensitive data, which consists of three categories based on the level of possible harm caused by the disclosed data, and a second categorization to quantify the safety levels of application components. Then, I demonstrate the validity of the taxonomy used to quantify data sensitivity with the GPT-4 and GPT-3.5 APIs, using a list of variable names and random sample applications for each. This is followed by the validation of the second taxonomy on identifying the safety levels of components and the efficacy of detecting problematic code segments by integrating the results of the two taxonomy evaluations.
Actions (login required)
Tétel nézet |