Show simple item record

dc.contributor.advisorΛιμνιώτης, Κωνσταντίνος
dc.contributor.authorΧριστοδούλου, Παρασκευή
dc.contributor.otherChristodoulou, Paraskevi
dc.coverage.spatialΚύπροςel_GR
dc.date.accessioned2023-08-22T10:29:49Z
dc.date.available2023-08-22T10:29:49Z
dc.date.copyright2023-08-22
dc.date.issued2023-05
dc.identifier.otherΑΥΔ/2023/00125el_GR
dc.identifier.urihttp://hdl.handle.net/11128/5657
dc.descriptionΠεριέχει βιβλιογραφικές παραπομπές.el_GR
dc.description.abstractΟι σκοποί της παρούσας μεταπτυχιακής διατριβής είναι η μελέτη και αποτύπωση όλων των κινδύνων αναφορικά με την ιδιωτικότητα και προστασία προσωπικών δεδομένων οι οποίοι εγείρονται από τη χρήση αλγορίθμων μηχανικής μάθησης, η μελέτη των τεχνικών αντιμετώπισης των εν λόγω κινδύνων, καθώς επίσης και η διερεύνηση της αποτελεσματικότητάς τους καθώς και των δυνατοτήτων περαιτέρω βελτίωσής τους.. Δεδομένης της εφαρμογής του Γενικού Κανόνα Προστασίας Προσωπικών Δεδομένων (GDPR) στις 25 Μαΐου 2018 και της αυξανόμενης χρήσης αλγόριθμων μηχανικής μάθησης που λαμβάνουν ως είσοδο προσωπικά δεδομένα φυσικών προσώπων για εξαγωγή συμπερασμάτων και λήψη αποφάσεων, κρίνεται αναγκαία η προστασία των προσωπικών δεδομένων των φυσικών προσώπων ώστε η ταυτότητά τους μην αποκαλύπτεται χωρίς την συγκατάθεσή τους ή χωρίς άλλη νομική βάση. Ειδικότερα, στην παρούσα μεταπτυχιακή διατριβή έχει αναλυθεί η έννοια των προσωπικών δεδομένων και των αλγορίθμων μηχανικής μάθησης και έχει παρουσιαστεί ο τρόπος που εφαρμόζονται στα προσωπικά δεδομένα. Ακολούθως, έχουν απαριθμηθεί οι κίνδυνοι που προκύπτουν από την χρήση των αλγόριθμων μηχανικής μάθησης όσον αφορά την ιδιωτικότητα. Στη συνέχεια, έχουν εφαρμοστεί οι τεχνικές αντιμετώπισης των κινδύνων που έχουν προταθεί/υλοποιηθεί και τα αποτελέσματά τους έχουν αξιολογηθεί. Έπειτα, έχουν ερευνηθεί περαιτέρω, μέσω πρακτικής εφαρμογής, οι τεχνικές αντιμετώπισης των κινδύνων που έχουν μελετηθεί ώστε να εξακριβωθεί αν μπορούν να βελτιωθούν. Τα αποτελέσματα της παρούσας μεταπτυχιακής διατριβής είναι σημαντικά καθώς η τεχνική αντιμετώπισης των κινδύνων που έχει μελετηθεί, η οποία βασίζεται σε εφαρμογή τεχνικής διαφορικής ιδιωτικότητας, είναι αποτελεσματική και έχει διαφανεί ότι μπορεί να βελτιωθεί. Συγκεκριμένα, τα ποσοστά ακριβείας εκπαίδευσης, επαλήθευσης και ελέγχου της εν λόγω τεχνικής έχουν βελτιωθεί και είναι υποσχόμενα. Η παρούσα μεταπτυχιακή διατριβή προτείνει καινοτόμες λύσεις στην εργασία της ιδιωτικής αναγνώρισης χαρακτήρων και αντικειμένων καθώς οι υπερπαράμετροι που έχουν μελετηθεί σε αυτή δεν έχουν μελετηθεί από άλλους ερευνητές. Τέλος, οι λύσεις αυτές μπορούν να τροποποιηθούν ώστε να είναι χρήσιμες σε ιατρικές εφαρμογές (π.χ. πρόβλεψη ασθενειών μερικά χρόνια πριν συμβούν) διατηρώντας την ιδιωτικότητα του συνόλου δεδομένων εισόδου που περιλαμβάνει ιατρικά δεδομένα ασθενών.el_GR
dc.format.extentvi, 196 σ. ; 30 εκ.el_GR
dc.languagegrel_GR
dc.language.isogrel_GR
dc.publisherΑνοικτό Πανεπιστήμιο Κύπρουel_GR
dc.rightsinfo:eu-repo/semantics/openAccessel_GR
dc.subjectΜηχανική μάθησηel_GR
dc.subjectMachine learningel_GR
dc.titleΑλγόριθμοι μηχανικής μάθησης και ζητήματα προστασίας προσωπικών δεδομένωνel_GR
dc.typeΜεταπτυχιακή Διατριβήel_GR
dc.description.translatedabstractThe goals of this master’s thesis are the study and mapping of all the risk regarding privacy and protection of personal data that arise from the use of machine learning algorithms, the study of the techniques for addressing those risks, as well as the study of their effectiveness in conjunction with their potential for further improvement. Given the implementation of the General Data Protection Regulation (GDPR) on 25 May 2018 and the increasing use of machine learning algorithms that take as input the personal data of individuals in order to draw conclusions and make decisions about them, it is considered necessary to protect the peronal data of people, so that their identity is not disclosed without their consent or the existence of another legal basis. More precisely, in this master’s thesis, the concepts of personal data and machine learning algorithms have been analyzed, whereas the way they are applied to personal data has been presented. Next, the privacy risks arising for the use of machine learning algorithms have been listed. Subsequently, the proposed/implemented risk management techniques that have been implemented are being studied, whilst their results are being evaluated. Then the techniques dealing with the risks that have been studied are further investigated, through experiments, to determine if they can be improved. The results of this master’s thesis are noteworthy as the risk management technique that has been studied, which is based on differential privacy, is effective and it has been shown that it can be improved and has been improved. In particular, the training, verification and testing accuracy percentages of this technique have been improved and are promising. This master’s thesis proposes innovative solutions to the task of private character and private object recognition as the hyperparameters studied in it have not been studied by other researchers. Finally, these solutions can be modified to be used in medical applications (e.g predicting diseases a few years before they occur) by preserving the privacy of the dataset that includes patient medical data.el_GR
dc.format.typepdfel_GR


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record