TU Darmstadt / ULB / TUbiblio

Managing Privacy Challenges in Digital Services and Machine Learning

Zöll, Anne (2024)
Managing Privacy Challenges in Digital Services and Machine Learning.
Technische Universität Darmstadt
doi: 10.26083/tuprints-00028795
Dissertation, Erstveröffentlichung, Verlagsversion

Kurzbeschreibung (Abstract)

Companies‘ data-driven digital services rely on the collection of personal data and its processing by self-learning algorithms. With the help of machine learning, companies can offer personalized services tailored to customer needs. As a result of the intensive collection of personal information by companies, customers have a sense of loss of control over their own personal information. They also have high privacy concerns about data handling. These concerns are amplified by high-profile data breaches such as the Cambridge Analytica scandal. Consequently, customers are increasingly hesitant to share their personal data with these companies, which could pose a risk to data-driven digital services. A smaller amount of data could compromise the performance of algorithms and thus reduce the quality of data-driven digital services. Therefore, the stated goal of this dissertation is to establish the complex balance between protecting customers‘ privacy and improving value creation processes. Thus, the central research question of this dissertation is how companies can mitigate the dilemma between protecting individual privacy and enhancing data-driven digital services. This dissertation examines the issue from three different perspectives: technological, individual, and organizational. Over the past decades, privacy-enhancing technologies have been developed. These information and communication technologies protect individuals‘ privacy either by removing or minimizing personal information or by preventing unnecessary or unwanted processing of personal information while maintaining the functionality of information systems. Despite the advanced implementation of these privacy-enhancing technologies, they are rarely used in data-driven digital services. Therefore, this dissertation provides an overview of the reasons why these privacy-enhancing technologies are only reluctantly adopted by companies. In particular, it highlights the barriers that arise when integrating these technologies into data-driven digital services. Thus, this dissertation demonstrates that a purely technological solution is not sufficient to fully answer the research question. This is the starting point of this dissertation, which aims to find a solution to mitigate the aforementioned dilemma. As privacy concerns are primarily customer-driven, this dissertation focuses on individuals as a further perspective. This perspective aims to examine how companies should design data-driven digital services to alleviate customer privacy concerns. To achieve this goal, the dissertation draws on theories from privacy research, focusing on individuals‘ control over their personal information and trust in data-driven digital services. Essentially, design principles are developed that are necessary to create data-driven digital services that allow individuals to regain control over their personal data. Furthermore, this dissertation continues to develop design principles to enhance costumers‘ trust in data-driven digital services, especially those based on machine learning. As a third perspective, organizations are included, particularly examining how machine learning can be integrated into companies‘ value creation process to build data-driven digital services. The focus of this research is to identify the factors that either support or hinder the integration of machine learning into companies‘ value creation processes. Although many factors for the adoption of innovations have been examined in previous literature, a re-examination is important because the characteristics of machine learning are significantly different from other technologies. For instance, vast amounts of personal information are processed to generate personalized recommendations for individuals. The ability of machine learning to uncover hidden patterns can lead to the inadvertent disclosure of sensitive personal information, thereby intensifying privacy concerns. Additionally, this dissertation builds on previous research that highlights differences in the acceptance of innovations in different cultures and examines which different factors are important for the adoption of machine learning in data-driven digital services in different cultures. In this regard, this dissertation applies the organizational readiness concept for artificial intelligence within cultural research to gain deeper insights into this intersection. In summary, this dissertation presents three important perspectives that aim to alleviate the dilemma between the protection of individuals‘ privacy and the use of machine learning for value creation in companies. It deals with privacy-enhancing technologies, prioritizes user-centered approaches, and the strategic design of value creation processes within companies. Particularly driven by the three perspectives, this dissertation motivates the development of a multilevel theory that aim to enable a holistic approach to alleviate the dilemma between privacy protection and value creation by bringing together technology, individuals, and organizations.

Typ des Eintrags: Dissertation
Erschienen: 2024
Autor(en): Zöll, Anne
Art des Eintrags: Erstveröffentlichung
Titel: Managing Privacy Challenges in Digital Services and Machine Learning
Sprache: Englisch
Referenten: Buxmann, Prof. Dr. Peter ; Reuter, Prof. Dr. Christian
Publikationsjahr: 3 Dezember 2024
Ort: Darmstadt
Kollation: 198 Seiten in verschiedenen Zählungen
Datum der mündlichen Prüfung: 20 November 2024
DOI: 10.26083/tuprints-00028795
URL / URN: https://tuprints.ulb.tu-darmstadt.de/28795
Kurzbeschreibung (Abstract):

Companies‘ data-driven digital services rely on the collection of personal data and its processing by self-learning algorithms. With the help of machine learning, companies can offer personalized services tailored to customer needs. As a result of the intensive collection of personal information by companies, customers have a sense of loss of control over their own personal information. They also have high privacy concerns about data handling. These concerns are amplified by high-profile data breaches such as the Cambridge Analytica scandal. Consequently, customers are increasingly hesitant to share their personal data with these companies, which could pose a risk to data-driven digital services. A smaller amount of data could compromise the performance of algorithms and thus reduce the quality of data-driven digital services. Therefore, the stated goal of this dissertation is to establish the complex balance between protecting customers‘ privacy and improving value creation processes. Thus, the central research question of this dissertation is how companies can mitigate the dilemma between protecting individual privacy and enhancing data-driven digital services. This dissertation examines the issue from three different perspectives: technological, individual, and organizational. Over the past decades, privacy-enhancing technologies have been developed. These information and communication technologies protect individuals‘ privacy either by removing or minimizing personal information or by preventing unnecessary or unwanted processing of personal information while maintaining the functionality of information systems. Despite the advanced implementation of these privacy-enhancing technologies, they are rarely used in data-driven digital services. Therefore, this dissertation provides an overview of the reasons why these privacy-enhancing technologies are only reluctantly adopted by companies. In particular, it highlights the barriers that arise when integrating these technologies into data-driven digital services. Thus, this dissertation demonstrates that a purely technological solution is not sufficient to fully answer the research question. This is the starting point of this dissertation, which aims to find a solution to mitigate the aforementioned dilemma. As privacy concerns are primarily customer-driven, this dissertation focuses on individuals as a further perspective. This perspective aims to examine how companies should design data-driven digital services to alleviate customer privacy concerns. To achieve this goal, the dissertation draws on theories from privacy research, focusing on individuals‘ control over their personal information and trust in data-driven digital services. Essentially, design principles are developed that are necessary to create data-driven digital services that allow individuals to regain control over their personal data. Furthermore, this dissertation continues to develop design principles to enhance costumers‘ trust in data-driven digital services, especially those based on machine learning. As a third perspective, organizations are included, particularly examining how machine learning can be integrated into companies‘ value creation process to build data-driven digital services. The focus of this research is to identify the factors that either support or hinder the integration of machine learning into companies‘ value creation processes. Although many factors for the adoption of innovations have been examined in previous literature, a re-examination is important because the characteristics of machine learning are significantly different from other technologies. For instance, vast amounts of personal information are processed to generate personalized recommendations for individuals. The ability of machine learning to uncover hidden patterns can lead to the inadvertent disclosure of sensitive personal information, thereby intensifying privacy concerns. Additionally, this dissertation builds on previous research that highlights differences in the acceptance of innovations in different cultures and examines which different factors are important for the adoption of machine learning in data-driven digital services in different cultures. In this regard, this dissertation applies the organizational readiness concept for artificial intelligence within cultural research to gain deeper insights into this intersection. In summary, this dissertation presents three important perspectives that aim to alleviate the dilemma between the protection of individuals‘ privacy and the use of machine learning for value creation in companies. It deals with privacy-enhancing technologies, prioritizes user-centered approaches, and the strategic design of value creation processes within companies. Particularly driven by the three perspectives, this dissertation motivates the development of a multilevel theory that aim to enable a holistic approach to alleviate the dilemma between privacy protection and value creation by bringing together technology, individuals, and organizations.

Alternatives oder übersetztes Abstract:
Alternatives AbstractSprache

Schon längst basieren die datengetriebenen digitalen Dienste von Unternehmen auf der Sammlung von persönlichen Daten und deren Verarbeitung durch selbstlernende Algorithmen. Mithilfe von maschinellem Lernen können Unternehmen personalisierte Dienstleistungen anbieten, die auf die Bedürfnisse der Nutzer zugeschnitten sind. Aufgrund der intensiven Sammlung persönlicher Daten durch Unternehmen haben die Nutzer das Gefühl, die Kontrolle über ihre eigenen persönlichen Daten zu verlieren. Zusätzlich haben sie hohe Datenschutzbedenken bezüglich des Umgangs mit ihren Daten durch Unternehmen. Prominente Datenlecks wie der Cambridge-Analytica-Skandal verstärken diese Privatsphäre Bedenken. Infolgedessen sind Nutzer digitaler Dienstleistungen zunehmend zurückhaltend bei der Weitergabe ihrer persönlichen Daten, was ein Risiko für die datengetriebenen digitalen Dienste darstellen kann. Eine geringere Datenmenge könnte die Leistung der selbstlernenden Algorithmen beeinträchtigen und somit die Qualität der datengetriebenen digitalen Dienste mindern. Daher ist es das Ziel dieser Dissertation, das Dilemma zwischen dem Schutz der Privatsphäre der Nutzer und der Verbesserung der Wertschöpfungsprozesse durch selbstlernende Algorithmen herzustellen. Die zentrale Forschungsfrage dieser Dissertation lautet daher, wie Unternehmen das Dilemma zwischen dem Schutz der Privatsphäre des Einzelnen und die Verbesserung datengetriebenen digitalen Dienste entschärfen können. Diese Dissertation betrachtet die Fragestellung aus drei verschiedenen Perspektiven: Aus der technologischen, individuellen und organisatorischen Perspektive. In den letzten Jahrzehnten haben sich Technologien zum Schutz der Privatsphäre entwickelt (Privacy-enhancing technologies). Diese Informations- und Kommunikationstechnologien schützen die Privatsphäre von Individuen entweder durch die Löschung oder Minimierung personenbezogener Daten oder indem unnötige oder unerwünschte Verarbeitung personenbezogener Daten verhindert wird, während gleichzeitig die Funktionalitäten der Informationssysteme erhalten bleiben. Trotz der weit fortgeschrittenen Implementierung dieser Technologien zum Schutz der Privatsphäre werden diese nur selten in datengetriebenen digitalen Diensten eingesetzt. Daher bietet diese Dissertation einen Überblick über die Gründe, warum diese Technologien zum Schutz der Privatsphäre von Unternehmen nur zögerlich eingesetzt werden. Insbesondere werden die Barrieren aufgezeigt, die auftreten, wenn diese Technologien in datengetriebene digitale Dienste integriert werden. Somit wird durch diese Dissertation deutlich, dass eine rein technologische Lösung nicht ausreicht, um die Forschungsfrage vollständig zu beantworten. Dies ist der Ausgangspunkt meiner Dissertation, um weitere Lösungen für das zuvor angesprochene Dilemmas zu finden. Da die Datenschutzbedenken insbesondere von den Nutzern datengetriebener digitaler Dienste ausgehen, wird in dieser Dissertation als weitere Perspektive der Fokus auf die Individuen gelegt. Diese Perspektive zielt darauf ab, zu untersuchen, wie Unternehmen datengetriebene digitale Dienste gestalten sollten, um die Privatsphäre Bedenken der Nutzer zu mildern. Um dieses Ziel zu erreichen, stützt sich die Dissertation auf Theorien aus der Privatsphäreforschung, wobei der Fokus auf der Kontrolle der Individuen über ihre persönlichen Informationen und dem Vertrauen in datengetriebene digitale Dienste liegen. Im Wesentlichen werden Designprinzipien entwickelt, die erforderlich sind, um datengetriebene digitale Dienste zu gestalten, die es Einzelpersonen ermöglichen, die Kontrolle über ihre persönlichen Daten zurückzugewinnen. Darüber hinaus werden in dieser Dissertation weiterhin Designprinzipien entwickelt, die das Vertrauen der Nutzer in datengetriebene digitale Dienste stärken, insbesondere in solche, die auf maschinellem Lernen basieren. Als dritte Perspektive werden Organisationen einbezogen und insbesondere untersucht, wie maschinelles Lernen in die Wertschöpfungsprozesse der Unternehmen integriert werden kann, so dass datengetriebene digitale Dienste aufgebaut werden können. Im Mittelpunkt dieser Untersuchung steht die Identifizierung der Faktoren, die entweder die Integration von maschinellem Lernen in die Wertschöpfungsprozesse der Unternehmen unterstützen oder erschweren. Obwohl in vorangegangener Literatur bereits viele Faktoren für die Adoption von Innovationen untersucht wurden, ist eine erneute Betrachtung wichtig, da sich die Charakteristika von maschinellem Lernen stark von anderen Technologien unterscheiden. Beispielsweise werden große Mengen an (personenbezogenen) Daten verarbeitet, aus denen Empfehlungen für Individuen abgeleitet werden können. Die Fähigkeit des maschinellen Lernens, versteckte Muster aufzudecken, kann dazu führen, dass versehentlich sensible personenbezogene Daten offengelegt werden, was wiederum zu verstärkten Datenschutzbedenken führen kann. Zudem baut diese Dissertation auf früherer Forschungen auf, die Unterschiede bei der Akzeptanz von Innovationen in verschiedenen Kulturen aufzeigen, und untersucht, welche unterschiedlichen Faktoren in verschiedenen Kulturen für die Adoption von maschinellem Lernen für datengetriebenen digitalen Diensten wichtig sind. Dabei wendet diese Dissertation das „Organizational Readiness Concept for Artificial Intelligence“ innerhalb der kulturellen Forschung an, um tiefere Einblicke in diese Schnittstelle zu gewinnen. Zusammenfassend stellt diese Dissertation drei wichtige Perspektiven vor, die darauf abzielen, das Dilemma zwischen dem Schutz der Privatsphäre von Individuen und der Nutzung von maschinellem Lernen zur Wertschöpfung in Organisationen aufzulösen. Sie beschäftigt sich mit Datenschutz-Technologien, priorisiert nutzerzentrierte Ansätze und der strategischen Gestaltung von Wertschöpfungsprozessen. Diese Dissertation hebt hervor, dass die Berücksichtigung mehrerer Perspektiven erforderlich ist, um das Dilemma auflösen zu können. Dies soll weitere Forschung dazu motivieren, eine Multilevel-Theorie zu entwickeln. Ziel dieser Theorie ist es, eine umfassende Betrachtungsweise zu ermöglichen, um das Dilemma zwischen dem Schutz der Privatsphäre von Individuen und der Gestaltung von Wertschöpfungsprozessen zu finden.

Deutsch
Status: Verlagsversion
URN: urn:nbn:de:tuda-tuprints-287956
Sachgruppe der Dewey Dezimalklassifikatin (DDC): 000 Allgemeines, Informatik, Informationswissenschaft > 004 Informatik
300 Sozialwissenschaften > 330 Wirtschaft
Fachbereich(e)/-gebiet(e): 01 Fachbereich Rechts- und Wirtschaftswissenschaften
01 Fachbereich Rechts- und Wirtschaftswissenschaften > Betriebswirtschaftliche Fachgebiete
01 Fachbereich Rechts- und Wirtschaftswissenschaften > Betriebswirtschaftliche Fachgebiete > Wirtschaftsinformatik
Hinterlegungsdatum: 03 Dez 2024 13:25
Letzte Änderung: 08 Dez 2024 10:39
PPN:
Referenten: Buxmann, Prof. Dr. Peter ; Reuter, Prof. Dr. Christian
Datum der mündlichen Prüfung / Verteidigung / mdl. Prüfung: 20 November 2024
Export:
Suche nach Titel in: TUfind oder in Google
Frage zum Eintrag Frage zum Eintrag

Optionen (nur für Redakteure)
Redaktionelle Details anzeigen Redaktionelle Details anzeigen