Hallo, willkommen zu „AI-Summaries“. Auf der WI2025 erzeugen wir mit KI aus Forschungsergebnissen aussagekräftige Zusammenfassungen!
Auf der Grundlage aller Beiträge für die WI2025 extrahieren wir mithilfe von KI (1) die behandelten Probleme sowie (2) die Ergebnisse, die für Unternehmen und die Gesellschaft durch die Beiträge erzielt wurden. Unsere KI stellt auch Podcasts zu den einzelnen Beiträgen bereit, damit Sie sich mit den Forschungsergebnissen der WI2025 beschäftigen können, z. B. beim morgendlichen Joggen, während der Zugfahrt oder beim Entspannen und Träumen vom schönen Münster!
Ihr Münster WI2025-Team
Titel & Keywords
Autoren
Developing a Generative AI Maturity Model for Supporting the Organizational Adoption Journey Generative artificial intelligence, maturity model, GenAI adoption, GAI-MM
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie entwickelt ein ganzheitliches Generative AI (GenAI)-Reifegradmodell, das Organisationen dabei unterstützt, ihre GenAI-Fähigkeiten zu bewerten und zu verbessern. Unter Verwendung eines Design-Science-Research-Ansatzes kombiniert das Modell Erkenntnisse aus der akademischen Literatur und Experteninterviews, um einen praktischen, theoretisch fundierten Rahmen für die Steuerung der GenAI-Adaption zu bieten.
Problem:
Während Generative KI Geschäftsabläufe verändert, tun sich viele Organisationen schwer damit, sie effektiv zu implementieren. Bestehende KI-Reifegradmodelle sind zu allgemein und berücksichtigen nicht die einzigartigen Herausforderungen und Fähigkeiten, die für eine erfolgreiche GenAI-Implementierung erforderlich sind, wodurch eine praktische Lücke für Manager entsteht, die Orientierung suchen.
Ergebnisse:
- Die Studie präsentiert ein vorläufiges GenAI-Reifegradmodell (GAI-MM), das Organisationen auf ihrem
Integrationsweg begleiten soll.
- Das Modell ist in fünf Schlüsseldimensionen strukturiert: Menschen, Prozess, Technologie, Daten und
Organisation.
- Es definiert fünf evolutionäre Reifegrade, von Stufe 1 (GenAI als einfaches Werkzeug) bis Stufe 5
(GenAI als autonomer Teil der Organisation).
- Jede Stufe bietet spezifische Charakteristika über die Dimensionen hinweg und bietet Organisationen eine klare Roadmap, um ihren aktuellen Zustand zu benchmarken und zukünftige Entwicklungen zu planen.
Mehr
Banh, Leonardo
Trust Me, I’m a Tax Advisor: Influencing Factors for Adopting Generative AI Assistants in Tax Law Generative Artificial Intelligence, Human-GenAI Collaboration, Trust, GenAI Adoption
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht die Schlüsselfaktoren, die das Vertrauen der Nutzer in generative KI-Assistenten aufbauen, insbesondere
im komplexen Bereich des Steuerrechts. Unter Anwendung eines Mixed-Methods-Ansatzes verglich die Forschung
zwei KI-Prototypen – einen mit vertrauensfördernden Funktionen und einen ohne – durch
quantitative Umfragen und qualitative Interviews mit Rechtsexperten.
Problem:
Während generative KI ein erhebliches Potenzial zur Rationalisierung der Arbeit in Bereichen wie dem Steuerrecht bietet, wird ihre Einführung durch das Misstrauen der Nutzer aufgrund von Bedenken hinsichtlich Genauigkeit, Transparenz und Zuverlässigkeit behindert. In Umgebungen mit hohen Einsätzen, in denen Fehler zu schweren Strafen führen können, ist das Verständnis, wie vertrauenswürdige KI entwickelt werden kann, entscheidend, um ihre Vorteile zu nutzen und eine sichere und effektive Mensch-KI-Zusammenarbeit zu gewährleisten.
Ergebnisse:
- KI-Assistenten durch Quellenangaben und Anzeige des Gesprächsverlaufs transparenter zu gestalten, erhöht das Vertrauen der Nutzer erheblich.
- Merkmale, die die KI menschenähnlicher machen (Anthropomorphismus), wie die Verwendung eines gesprächigen Tons und einer personalisierten Begrüßung, bauen ebenfalls Vertrauen auf.
- Nutzer vertrauen einer KI mehr, wenn sie ihre Fähigkeiten und Grenzen offenlegt und sich an soziale und ethische Normen hält.
- Ein höheres Maß an Vertrauen in die KI führt direkt zu einer größeren Absicht, das Werkzeug für berufliche Aufgaben zu nutzen.
- Rechtsexperten bevorzugten einstimmig den KI-Prototyp, der diese vertrauensbildenden Designmerkmale enthielt, und hielten ihn für zuverlässiger bei der Erforschung des Steuerrechts.
Mehr
Möllmann, Ben; Banh, Leonardo; Laufer, Jan; Strobel, Gero
The Double-Edged Sword: Empowerment and Risks of Platform-Based Work for Women Women, platform-based work, empowerment, risks.
Podcast:
Link kopieren
Zusammenfassung:
Dieses konzeptionelle Papier analysiert die dualen Auswirkungen plattformbasierter Arbeit auf die Karrieren und das Leben von Frauen. Anhand von Fallstudien von „Mum-Bloggern“, OnlyFans-Creatorinnen und Crowdworkern untersucht die Studie, wie digitale Plattformen gleichzeitig Ermächtigung bieten und gleichzeitig erhebliche neue Risiken einführen können. Die Forschung hebt den „zweischneidigen“ Charakter dieser Arbeit hervor und zeigt ihre komplexe Beziehung zu bestehenden geschlechtsspezifischen Machtstrukturen auf.
Problem:
Traditionelle Anstellungen werden oft den Betreuungsaufgaben, die überproportional auf Frauen entfallen, nicht gerecht und schaffen erhebliche Karrierehindernisse. Plattformarbeit mit ihrem Versprechen von Flexibilität hat sich als attraktive Alternative herauskristallisiert. Es ist jedoch unklar, ob diese neue Arbeitsform Frauen wirklich stärkt oder alte Ungleichheiten nur in neuem, digitalem Gewand fortbestehen lässt.
Ergebnisse:
- Plattformarbeit kann Frauen stärken, indem sie flexible Arbeitszeiten bietet, um Betreuungsaufgaben mit bezahlter Arbeit zu vereinbaren, finanzielle Unabhängigkeit, Kompetenzentwicklung und unterstützende Online-Gemeinschaften fördert.
- Diese Arbeit birgt erhebliche Risiken, darunter das Fehlen sozialer Schutzmaßnahmen (z. B. Krankenversicherung, Renten), unvorhersehbare Einkommensströme, die von intransparenten Algorithmen abhängen, und finanzielle Instabilität.
- Frauen auf diesen Plattformen sehen sich erhöhten Herausforderungen für ihre psychische Gesundheit durch Online-Belästigung und Missbrauch ausgesetzt, sowie Risiken für ihre persönlichen Rechte in Bezug auf Datenschutz, Sicherheit und körperliche Unversehrtheit.
- Letztendlich können die mit der Plattformarbeit verbundenen Risiken bestehende Geschlechterungleichheiten verstärken, Frauen auf häusliche Rollen beschränken und ihre finanzielle Abhängigkeit aufrechterhalten, anstatt patriarchale Strukturen abzubauen.
Mehr
Hödl, Tatjana; Boboschko, Irina
Education and Migration of Entrepreneurial and Technical Skill Profiles of German University Graduates Entrepreneurship, Location factors, Skills, STEM, Universities
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie analysiert die LinkedIn-Profile von Alumni von 43 großen deutschen Universitäten, um das Angebot und die Abwanderung von Absolventen mit unternehmerischen und technischen Fähigkeiten abzubilden. Die Forschung identifiziert, welche Universitäten die meisten Talente hervorbringen und verfolgt, wo diese Absolventen nach dem Abschluss leben. Ziel ist es, datengesteuerte Erkenntnisse über die Verfügbarkeit und Bindung von Talenten für Unternehmen, Start-ups und politische Entscheidungsträger zu liefern.
Problem:
Deutschland steht vor einem erheblichen Fachkräftemangel, was eine große Herausforderung für Start-ups und Technologieunternehmen darstellt, die wachsen wollen. Unternehmen fehlt es oft an klaren Daten darüber, wo sie Top-Talente finden und rekrutieren können, da unklar ist, ob Absolventen in der Nähe ihrer Universitäten bleiben oder in andere Regionen ziehen. Diese Studie schließt diese Informationslücke, indem sie die tatsächliche Mobilität von qualifizierten Absolventen verfolgt und Unternehmen dabei hilft, bessere strategische Entscheidungen bezüglich Standort und Einstellung zu treffen.
Ergebnisse:
- Bestimmte Universitäten, insbesondere die TU München, sind Talentschmieden und bringen die höchste Anzahl von Absolventen mit sowohl technischen als auch unternehmerischen Fähigkeiten hervor.
- Große Metropolregionen wie Berlin, München und Hamburg sind sehr effektiv darin, die in ihren Städten ausgebildeten Talente zu halten, wobei einige Berliner Universitäten fast 70 % ihrer unternehmerisch begabten Absolventen lokal halten.
- Deutschlands wichtigste Tech-Hubs – Berlin und Bayern – sind sehr erfolgreich darin, nicht nur ihre eigenen Absolventen zu halten, sondern auch eine große Anzahl qualifizierter Arbeitskräfte aus anderen Bundesländern anzuziehen.
- Nordrhein-Westfalen (NRW) produziert das größte Volumen an qualifizierten Absolventen, hat aber eine geringere Bindungsrate und wird damit effektiv zu einem wichtigen Talentlieferanten für Berlin und Bayern.
- Städte und Bundesländer halten unternehmerische Talente oft in höherem Maße als technische Talente, was auf eine potenzielle Lücke bei attraktiven Arbeitsmöglichkeiten in der lokalen Tech-Industrie hindeutet.
Mehr
Blomeyer, David; Koeffer, Sebastian
How Digital Technologies Shape the Entrepreneurial Identities of Women in Tech digital technology, digital entrepreneurship. women entrepreneurs, entre-preneurial identity
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, wie digitale Technologien die unternehmerischen Identitäten von Frauen in der Tech-Industrie prägen. Anhand von semistrukturierten Interviews mit 15 weiblichen Unternehmerinnen in Deutschland untersucht die Forschung die positiven und negativen Auswirkungen digitaler Werkzeuge auf ihre professionelle Selbstwahrnehmung, Denkweise und ihr Wohlbefinden.
Problem:
Während digitale Technologien oft dafür gelobt werden, Unternehmertum zugänglicher zu machen, bleiben Frauen in diesem Bereich unterrepräsentiert. Bestehende Forschung hat sich auf strukturelle Barrieren wie die Finanzierung konzentriert, aber es ist weniger bekannt, wie die ständige Nutzung digitaler Plattformen die Identität einer Frau als Unternehmerin direkt beeinflusst, einschließlich des einzigartigen Drucks und der sich daraus ergebenden Chancen.
Ergebnisse:
- Digitale Technologien haben eine zweifache Auswirkung auf Unternehmerinnen: Sie bieten
ermächtigende Flexibilität, schaffen aber auch neuen Druck wie ständige Erreichbarkeit und mentale Erschöpfung.
- Frauen nutzen digitale Werkzeuge, um Mutterschaft und Karriere auszubalancieren („digitale Mutterschaft“), stoßen aber im digitalen Raum immer noch auf Vorurteile und fehlende Unterstützungsstrukturen.
- Die Entwicklung einer „digitalen Denkweise“ ist entscheidend, die durch Online-Zugang zu Vorbildern
und sicheren, unterstützenden digitalen Gemeinschaften für Frauen gefördert wird.
- Ständige Online-Präsenz und die Notwendigkeit, eine digitale professionelle Marke zu verwalten, tragen zu Stress
und möglichem Burnout bei und beeinträchtigen das psychische Wohlbefinden negativ.
Mehr
Schmitt, Franziska; Weritz, Pauline
Corporate Governance for Digital Responsibility. A Company Study Corporate Digital Responsibility, Corporate Governance, Digital Transfor-mation, Principles-to-Practice, Company Study
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie analysiert, wie zehn führende deutsche Unternehmen die Prinzipien der Corporate Digital Responsibility (CDR) in konkrete Geschäftspraktiken umsetzen. Anhand einer qualitativen Analyse öffentlicher Unternehmensdaten untersucht die Forschung die Corporate-Governance-Strukturen, Regeln und Rollen, die diese Unternehmen eingerichtet haben, um ihre digitalen Technologien ethisch und verantwortungsvoll zu verwalten.
Problem:
Wenn Unternehmen neue digitale Technologien einführen, schaffen sie neue ethische und gesellschaftliche Herausforderungen, von KI-Voreingenommenheit bis hin zu Bedenken hinsichtlich des Datenschutzes. Während das Konzept der Corporate Digital Responsibility (CDR) einen Rahmen zur Bewältigung dieser Probleme bietet, gibt es eine erhebliche Lücke zwischen theoretischen Prinzipien und praktischer Umsetzung, sodass Unternehmen keine klare Roadmap für die Verankerung digitaler Verantwortung in ihren Betrieben haben.
Ergebnisse:
- Unternehmen formalisieren CDR mit offiziellen Verpflichtungen auf C-Level und schaffen maßgeschneiderte
Richtlinien, Werte und Prinzipien zur Steuerung ihrer digitalen Aktivitäten.
- Es entstehen effektive Governance-Strukturen, einschließlich der Schaffung zentraler Ansprechpartner,
der Einrichtung von Expertengruppen (z. B. Digital Ethics Panels) und der Sicherstellung, dass die Rechenschaftspflicht direkt an
die Geschäftsleitung gekoppelt ist.
- Die Umsetzung umfasst die Schaffung offizieller Entscheidungsprozesse für ethische Dilemmata,
die kontinuierliche Einbindung von Stakeholdern und die Entwicklung von Mitarbeiterkompetenzen durch Sensibilisierungskampagnen
und Schulungen.
- Führende Unternehmen integrieren CDR in Risikomanagementprozesse und Leistungsberichterstattung,
oft als Teil ihrer umfassenderen Nachhaltigkeitsbemühungen.
- Die Forschung leitet siebzehn praktische Erkenntnisse ab, die als Modell dafür dienen, wie Unternehmen
ihre eigenen CDR-Initiativen strukturieren können.
Mehr
Christ, Anna-Sophia
Design of PharmAssistant: A Digital Assistant For Medication Reviews Pharmacy; Medication Reviews; Digital Assistants; Design Science
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie beschreibt detailliert das Design und die erste Evaluierung von 'PharmAssistant', einem digitalen Assistenten, der entwickelt wurde, um Apothekern bei der Durchführung von Medikationsüberprüfungen zu helfen. Mit einem Design Science Research-Ansatz entwickelten die Forscher einen Prototyp, um den zeitaufwändigen Prozess der Erfassung von Patientendaten zur Medikation vor einer Beratung zu rationalisieren. Das Design des Prototyps wurde durch Interviews mit Apothekern informiert und durch Fokusgruppen mit Pharmaziestudierenden evaluiert.
Problem:
Polypharmazie, die Einnahme von fünf oder mehr Medikamenten, ist ein wachsendes Gesundheitsproblem, und Medikationsüberprüfungen sind eine Schlüsselintervention zur Vermeidung medikamentenbedingter Probleme. Diese Überprüfungen werden jedoch nicht weit verbreitet durchgeführt, da sie für Apotheker, denen oft die Zeit und die Ressourcen fehlen, um während der Konsultationen umfassende Patientenmedikationshistorien manuell zu sammeln, äußerst zeitaufwendig sind.
Ergebnisse:
- Der „PharmAssistant“-Prototyp demonstriert einen gangbaren Weg zur Automatisierung der Patientendatenerfassung vor einer Medikationsüberprüfung, wodurch potenziell die Zeitbelastung für Apotheker reduziert wird.
- Für ältere Benutzer konzipierte Funktionen, wie das Scannen von Medikamenten-Barcodes (PZN-Nummern) und die Verwendung vordefinierter Antworten, wurden als Stärken identifiziert, die die Dateneingabe vereinfachen.
- Apotheker äußerten gemischte Meinungen, erkannten das Potenzial des Tools zur Zeitersparnis an, äußerten aber Bedenken hinsichtlich der Benutzerfreundlichkeit für ältere Patienten und der Bedeutung der persönlichen Interaktion.
- Das Feedback von Pharmaziestudierenden legte wichtige Verbesserungen nahe, darunter die Ergänzung von Lifestyle-Fragen, die Definition medizinischer Begriffe, die Gewährleistung robuster Datenschutzbestimmungen und die Integration in elektronische Gesundheitsakten.
- Die Forschung schließt daraus, dass digitale Assistenten Medikationsüberprüfungen zwar unterstützen können, ihr Erfolg jedoch von einem nutzerzentrierten Design abhängt, das intuitiv, einfühlsam und zugänglich ist.
Mehr
Both, Laura Melissa Virginia; Fuhr, Laura; Marok, Fatima; Rüdesheim, Simeon; Lehr, Thorsten; Morana, Stefan
There is AI in SustAInability – A Taxonomy Structuring AI For Environmental Sustainability Artificial Intelligence, AI for Sustainability, Environmental Sustainability, Taxonomy
Podcast:
Link kopieren
Zusammenfassung:
Diese Forschungsarbeit entwickelt eine umfassende Taxonomie zur Strukturierung und zum Verständnis der Anwendungen von Künstlicher Intelligenz für Umweltnachhaltigkeit (KInU). Basierend auf einer iterativen Analyse wissenschaftlicher Literatur und realer Beispiele haben die Autoren ein mehrschichtiges Rahmenwerk mit neun Dimensionen erstellt. Diese Taxonomie dient als Werkzeug für Forscher und Praktiker zur ganzheitlichen Analyse, Klassifizierung und zum Verständnis von KI-Systemen, die für Umweltzwecke entwickelt wurden.
Problem:
Während Künstliche Intelligenz (KI) zunehmend als wichtiger Wegbereiter für ökologische Nachhaltigkeit anerkannt wird, mangelt es dem Bereich an einer systematischen Struktur. Forschung und Anwendungen werden oft für spezifische Kontexte entwickelt, was zu einer fragmentierten Landschaft führt, die es Unternehmen und Forschern erschwert, einen umfassenden Überblick zu erhalten, Lösungen zu vergleichen oder zukünftige Entwicklungen zu steuern. Dieses Fehlen eines gemeinsamen Rahmens behindert den effektiven und verantwortungsvollen Einsatz von KI zur Bewältigung dringender Umweltprobleme.
Ergebnisse:
- Die Studie stellt eine mehrschichtige Taxonomie zur Klassifizierung von KI-Systemen für ökologische Nachhaltigkeit (AIfES) vor.
- Diese Taxonomie ist in drei Ebenen unterteilt: 'Kontext' (die zu bewältigende Nachhaltigkeitsherausforderung), 'KI-Setup' (die technologische Grundlage und die Datenanforderungen) und 'Nutzung' (potenzielle Risiken und Endnutzer).
- Der Rahmen enthält neun verschiedene Dimensionen und 50 Merkmale, die eine detaillierte und ganzheitliche Analyse von KI-Anwendungen ermöglichen.
- Für Unternehmen bietet die Taxonomie praktische Anleitung für die Gestaltung, Bewertung und Kommunikation des Nachhaltigkeitswerts ihrer KI-Systeme.
- Der Rahmen etabliert eine gemeinsame Sprache für technische, Management- und Nachhaltigkeits-Stakeholder, um die verantwortungsvolle Entwicklung wirkungsvoller KI zu unterstützen.
Agile design options for IT organizations and resulting performance effects: A systematic literature review Agile IT organization design, agile design options, agility benefits
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie führt eine systematische Literaturübersicht von 57 wissenschaftlichen Arbeiten durch, um einen strukturierten Überblick darüber zu geben, wie IT-Organisationen auf Agilität ausgelegt werden können. Die Forschung identifiziert 20 verschiedene agile Gestaltungsoptionen und deren damit verbundene Leistungsvorteile. Diese Optionen werden in vier Schlüsseldimensionen kategorisiert: Prozesse, Struktur, Menschen & Kultur und Governance.
Problem:
Im digitalen Zeitalter haben traditionelle IT-Organisationen oft Schwierigkeiten, mit den sich schnell ändernden Marktanforderungen Schritt zu halten, was die Geschäftsinnovation behindert. Während viele Unternehmen die Notwendigkeit einer größeren Agilität erkennen, ist die bestehende Literatur zur Neugestaltung einer IT-Organisation fragmentiert und es fehlt ein klarer, konsolidierter Rahmen. Dies erschwert es Führungskräften, fundierte und kostengünstige Entscheidungen bei der Planung einer agilen Transformation zu treffen.
Ergebnisse:
- Die Studie identifiziert 20 spezifische, umsetzbare Design-Optionen, die IT-Organisationen implementieren können, um agiler zu werden, und dient als praktischer Werkzeugkasten für Führungskräfte.
- Diese Optionen sind in vier Schlüsselbereiche gegliedert: Prozesse (z. B. Wertstromorientierung),
Struktur (z. B. BizDevOps, Produktorientierung), Menschen & Kultur (z. B. T-förmige Fähigkeiten) und
Governance (z. B. Teamautonomie, dezentrale Entscheidungen).
- Jede Design-Option ist explizit mit ihren erwarteten Leistungsverbesserungen verknüpft, wie z. B. erhöhte
Liefergeschwindigkeit, verbesserte Innovation, bessere Abstimmung zwischen Business und IT und stärkerer
Kundenfokus.
- Die Forschung betont, dass ein Einheitsansatz unwirksam ist; Organisationen müssen
verschiedene Design-Optionen sorgfältig auswählen und kombinieren, die auf ihren einzigartigen Kontext zugeschnitten sind.
- Schlüsselstrukturelle Änderungen wie die Einführung von BizDevOps (Integration von Business, Development und
Operations) und der Übergang zu einem produktorientierten Modell verbessern nachweislich die End-to-End-
Verantwortung und die Marktreaktionsfähigkeit erheblich.
Mehr
Hohenreuther, Oliver
Overcoming Legal Complexity for Commercializing Digital Technologies: The Digital Health Regulatory Navigator as a Regulatory Support Tool digital health technology, regulatory requirements, design science research, medical device regulations, regulatory support tools
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie stellt eine neue Kategorie von Werkzeugen vor, die als regulatorische Unterstützungswerkzeuge bezeichnet werden und Startups helfen sollen, sich in komplexen Vorschriften zurechtzufinden. Die Forscher entwickelten und evaluierten den 'Digital Health Regulatory Navigator (EU)' unter Anwendung eines Design-Science-Research-Ansatzes, um digitale Gesundheits-Startups bei der Verstehen und strategischen Anwendung der EU-Medizinprodukteregulierungen zu unterstützen.
Problem:
Digitale Gesundheits-Start-ups, insbesondere in der Europäischen Union, sehen sich aufgrund zunehmend komplexer und strenger Medizinprodukteregulierungen erheblichen Markteintrittsbarrieren gegenüber. Diesen jungen Unternehmen fehlen oft die Ressourcen und das juristische Fachwissen, um sich in diesem Umfeld zurechtzufinden, was Innovationen hemmen und die Kommerzialisierung nützlicher Technologien behindern kann.
Ergebnisse:
- Ein neuer Werkzeugtyp, das „Regulatory Support Tool“, wurde konzipiert und entworfen, um
Start-ups in stark regulierten Branchen zu unterstützen.
- Der „Digital Health Regulatory Navigator (EU)“ wurde als praktisches Werkzeug entwickelt, um
Digital-Health-Start-ups bei der Verständigung mit den EU-Medizinprodukteregulierungen und der
Formulierung einer regulatorischen Strategie zu helfen.
- Bewertungen durch Experten und Unternehmer bestätigten den praktischen Wert, die Effektivität und
die Benutzerfreundlichkeit des Werkzeugs für seine Zielgruppe.
- Die Studie liefert verallgemeinerbare Designprinzipien, die zur Schaffung ähnlicher
Unterstützungswerkzeuge für andere regulierte Bereiche verwendet werden können, wie beispielsweise
für solche, die vom EU AI Act betroffen sind.
- Solche Werkzeuge können Compliance-Kosten senken, Start-ups helfen, schneller zu innovieren und
Regulierungen strategisch für einen reibungsloseren Markteintritt zu nutzen.
Towards the Acceptance of Virtual Reality Technology for Cyclists Technology Acceptance, TAM, Cycling, Extended Reality, XR
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie befragte 314 Freizeit- und Wettkampfradfahrer, um zu verstehen, welche Faktoren sie zur Nutzung von Virtual Reality (VR) für das Indoor-Training bewegen würden. Die Forschung nutzte ein erweitertes Technology Acceptance Model (TAM), um die wichtigsten Treiber für die Einführung immersiver Trainingstechnologien zu identifizieren, wobei die beliebte Plattform Zwift als hypothetisches Szenario diente.
Problem:
Aktuelle digitale Indoor-Cycling-Plattformen sind beliebt, bieten aber ein begrenztes, bildschirmbasiertes Erlebnis.
Während VR-Technologie das Training immersiver und motivierender machen könnte, ist ihr Potenzial im Sport weitgehend unerforscht, was Unternehmen Unsicherheit darüber bereitet, ob Radfahrer sie tatsächlich annehmen würden und welche Funktionen sie schätzen würden.
Ergebnisse:
- Der wichtigste Faktor für die Akzeptanz von VR durch Radfahrer ist der wahrgenommene Spaß; das Erlebnis unterhaltsam zu gestalten ist wichtiger als sein Nutzen zur Leistungsverbesserung.
- Die wahrgenommene Nützlichkeit ist ein wichtiger Prädiktor für die Akzeptanz, aber weniger einflussreich als der Spaß.
- Überraschenderweise hat die einfache Bedienbarkeit der Technologie keinen signifikanten Einfluss auf die Nutzungsabsicht eines Radfahrers.
- Soziale Faktoren, wie Empfehlungen von Gleichgesinnten und Trainern, beeinflussen maßgeblich, wie nützlich und unterhaltsam Radfahrer VR empfinden.
- Die allgemeine Aufgeschlossenheit einer Person gegenüber neuer Technologie ist ein Schlüsselfaktor für die Vorhersage eines positiven Empfangs.
Designing Change Project Monitoring Systems: Insights from the German Manufacturing Industry Change Management, Monitoring, Action Design Research, Design Science, Industry
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, wie effektive Systeme zur Überwachung von Organisationsveränderungsprojekten entworfen werden können. Unter Verwendung eines Action Design Research-Ansatzes mit zwei deutschen Produktionsunternehmen entwickelten und evaluierten die Forscher ein prototypisches System, das aus Umfragen und einem interaktiven Dashboard besteht. Ziel war es, verallgemeinerbare Anforderungen und Gestaltungsprinzipien abzuleiten, um Praktiker und Akademiker bei der Erstellung ähnlicher Werkzeuge zu unterstützen.
Problem:
Organisationen durchlaufen ständig Veränderungen, um wettbewerbsfähig zu bleiben, aber die Verwaltung dieser Initiativen ist schwierig. Während IT-Systeme Veränderungsprojekte überwachen können, um die Transparenz und Entscheidungsfindung zu verbessern, gibt es nur sehr wenig Forschung oder praktische Anleitung, wie diese Systeme effektiv gestaltet werden können. Diese Wissenslücke behindert die Entwicklung von Werkzeugen, die komplexe Change-Management-Prozesse erfolgreich unterstützen können.
Ergebnisse:
- Die Studie produzierte ein Prototyp-Monitoring-System unter Verwendung von Umfragen und einem Power BI-Dashboard, um wichtige Kennzahlen wie Veränderungsbereitschaft, Akzeptanz und Implementierung zu verfolgen.
- Wichtige Designherausforderungen wurden identifiziert, darunter die Balance zwischen dem Bedarf an detaillierten Einblicken und dem Benutzeraufwand, die Berücksichtigung unterschiedlicher Change-Management-Stile und die Erwartungssteuerung hinsichtlich datengesteuerter Analysen.
- Drei Kernanforderungen an Systeme für das Change-Monitoring wurden vorgeschlagen: Sie müssen an verschiedene Benutzer und Projekte anpassbar sein, Informationen bereitstellen, die auf die Bedürfnisse verschiedener Stakeholder zugeschnitten sind, und den für ihre Nutzung erforderlichen Aufwand minimieren.
- Die Forschung liefert acht spezifische Designprinzipien für den Aufbau dieser Systeme, wobei der Schwerpunkt auf Aspekten wie der Verwendung gängiger Datenformate, der Gewährleistung der Modularität, der Einbeziehung von Stakeholdern während des gesamten Prozesses und der Kommunikation einer klaren Vision für das Werkzeug liegt.
Mehr
Brechtelsbauer, Bastian Michael
Navigating Generative AI Usage Tensions in Knowledge Work: A Socio-Technical Perspective Generative AI, Knowledge work, Tensions, Socio-technical systems theory
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht die Integration von Generativer KI (GenAI) in die Wissensarbeit und konzentriert sich dabei auf die daraus resultierenden Konflikte zwischen Nutzen und Risiken. Anhand der soziotechnischen Systemtheorie identifiziert die Forschung zentrale Spannungsfelder durch eine systematische Literaturrecherche und Interviews mit 18 Wissensarbeitern. Die Arbeit schlägt Lösungen vor, um Organisationen bei der Bewältigung dieser Herausforderungen für eine verantwortungsvolle und effektive KI-Adaption zu unterstützen.
Problem:
Während generative KI erhebliche Möglichkeiten zur Steigerung der Produktivität und Effizienz in der Wissensarbeit bietet, birgt ihre Einführung komplexe Herausforderungen. Organisationen stehen vor inhärenten Konflikten zwischen der Nutzung von KI für Geschwindigkeit und der Gewährleistung der Zuverlässigkeit von Ergebnissen, dem Schutz sensibler Daten und der Einhaltung ethischer Standards. Dies schafft Unsicherheit und Risiko und unterstreicht die Notwendigkeit klarer Strategien, um Innovation und verantwortungsvolle Steuerung in Einklang zu bringen.
Ergebnisse:
Produktivität vs. Reflexion: GenAI steigert die Effizienz, kann aber zu übermäßiger Abhängigkeit und verringertem kritischem Denken führen, was potenziell die Arbeitsqualität beeinträchtigt.
Verfügbarkeit vs. Zuverlässigkeit: Ständiger Zugriff auf GenAI garantiert keine korrekten Informationen, was das Geschäftsrisiko erhöht, auf Fehlinformationen zu handeln.
Bequemlichkeit vs. Datenschutz: Die einfache Nutzung von GenAI für alltägliche Aufgaben birgt ein erhebliches Risiko, vertrauliche oder sensible Unternehmensdaten an externe Systeme preiszugeben.
Effizienz vs. Nachvollziehbarkeit: KI generiert Inhalte schnell, aber das Fehlen überprüfbarer Quellen erschwert die Vertrauensbildung und Nutzung in professionellen Umgebungen, in denen Genauigkeit entscheidend ist.
Regulierungsfreiheit vs. Ambivalenz: Die weit verbreitete Zugänglichkeit von GenAI kollidiert mit einem Mangel an klaren Vorschriften und schafft rechtliche und ethische Unsicherheiten für Unternehmen hinsichtlich ihrer verantwortungsvollen Nutzung.
Mehr
Gieß, Anna; Schöbel, Sofia; Möller, Frederik
Discerning Truth: A Qualitative Comparative Analysis of Reliance on AI Advice in Deepfake Detection Deepfake, Algorithmic Advice-Taking, Qualitative Comparative Analysis (QCA), Human-AI Collaboration
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, warum Menschen KI-Ratschläge beim Erkennen von Deepfake-Videos vertrauen oder diese ignorieren. In einem Online-Experiment präsentierten Forscher den Teilnehmern Videos und die Empfehlung eines KI-Erkennungstools und analysierten, wie Faktoren wie Vertrauen, KI-Kompetenz und Algorithm aversion ihre endgültigen Urteile beeinflussten.
Problem:
Der Aufstieg hochrealistischer Deepfakes macht es zunehmend schwierig, echte von manipulierten Inhalten zu unterscheiden, was erhebliche Bedrohungen wie die Verbreitung von Fehlinformationen und Reputationsschäden birgt. Obwohl KI-Erkennungswerkzeuge verfügbar sind, ist wenig über die psychologischen Faktoren bekannt, die die Nutzung dieser Systeme durch Benutzer in Situationen mit hohem Risiko beeinflussen.
Ergebnisse:
- Nutzer folgten dem Rat einer KI weitaus eher, wenn diese ein Video als echt bestätigte, aber sie ignorierten oft ihren Rat, wenn sie ein Video als Deepfake kennzeichnete.
- Diese Tendenz, von der KI stammende „echte“ Bewertungen zu akzeptieren, trat unabhängig vom Vertrauen des Nutzers, seiner KI-Kompetenz oder seiner allgemeinen Abneigung gegenüber Algorithmen auf.
- Die Inanspruchnahme von KI-Ratschlägen zur Bestätigung der Authentizität wurde durch verschiedene Kombinationen von Benutzermerkmalen angetrieben, darunter geringes Vertrauen, hohe KI-Kompetenz oder hohe Abneigung gegenüber Algorithmen.
- Die Ergebnisse deuten darauf hin, dass Nutzer KI-Tools möglicherweise eher als bestätigende Hilfsmittel für die Authentizität denn als zuverlässige Manipulationsdetektoren betrachten, was das Risiko eines „blinden Folgens“ von KI-Empfehlungen birgt.
Mehr
Ernst, Christiane
Thinking Twice: A Sequential Approach to Nudge Towards Reflective Judgment in GenAI-Assisted Decision Making Dual Process Theory, Digital Nudging, Cognitive Forcing, Generative AI, Decision Making
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, wie man zu bewussterem, analytischerem Denken anregen kann, wenn Menschen Generative KI (GenAI) zur Entscheidungsfindung nutzen. In einem Experiment mit 130 Teilnehmern testeten Forscher ein "sequenzielles" Interaktionsdesign, bei dem die Benutzer eine erste Entscheidung trafen, bevor sie Unterstützung durch GenAI erhielten. Dieser Ansatz wurde mit der gleichzeitigen KI-Hilfe oder gar keiner KI-Hilfe verglichen.
Problem:
Wenn Generative KI zur Entscheidungsunterstützung eingesetzt wird, verlassen sich Menschen oft auf schnelle, intuitive Urteile
(System 1-Denken) anstelle von sorgfältigem, analytischem Denken (System 2). Diese übermäßige Abhängigkeit von „Bauchgefühlen“ kann zu suboptimalen Entscheidungen führen und das volle Potenzial der KI-Unterstützung nicht ausschöpfen.
Die Studie befasst sich mit der Herausforderung, KI-Interaktionen zu gestalten, die Benutzer dazu anregen, reflektierter und kritischer nachzudenken.
Ergebnisse:
- Die Anforderung, dass Benutzer eine anfängliche Entscheidung treffen müssen, bevor sie GenAI-Hilfe erhalten, verbessert die Entscheidungsleistung signifikant im Vergleich zur gleichzeitigen KI-Hilfe oder gar keiner KI.
- Diese sequentielle Interaktionsmethode ermutigt Benutzer, kritischer zu denken und sich tiefer mit der KI auseinanderzusetzen, was sich in einer signifikant höheren Nutzung von Prompts zeigt.
- Eine anfängliche, ununterstützte Wahl hilft Benutzern, Konflikte zwischen ihrer intuitiven Antwort und dem KI-Vorschlag zu erkennen, was zu einem Übergang zu bewussterem, analytischem Denken anregt.
- Dieser „Anstoß“ führt zu besseren endgültigen Entscheidungen, ohne die Benutzerautonomie einzuschränken, und bietet ein praktisches Gestaltungsprinzip für effektivere Mensch-KI-Kollaborationssysteme.
Mehr
Hussein Keke, Hüseyin; Eisenhardt, Daniel; Meske, Christian
Bias Measurement in Chat-optimized LLM Models for Spanish and English LLM, bias, multilingual, Spanish
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie analysiert soziale Voreingenommenheiten in modernen Chat-basierten KI-Modellen und vergleicht deren Leistung sowohl in englischer als auch in spanischer Sprache. Die Forscher entwickelten eine systematische Methode, um drei führende KI-Modelle mithilfe spezialisierter Datensätze zu testen. Die Bewertung konzentrierte sich auf die Fähigkeit der Modelle, voreingenommene Eingabeaufforderungen zu erkennen und die Beantwortung zu verweigern, sowie auf die Fairness ihrer Antworten, wenn sie diese doch beantworten.
Problem:
Da Unternehmen zunehmend auf KI für kritische Entscheidungen in Bereichen wie Personalwesen und Kundenservice angewiesen sind, besteht die erhebliche Gefahr, dass diese Systeme schädliche soziale Stereotypen aufrechterhalten und zu ungerechten Ergebnissen führen könnten. Die meiste Forschung zu KI-Voreingenommenheit hat sich ausschließlich auf Englisch konzentriert, was eine erhebliche Wissenslücke für andere global wichtige Sprachen wie Spanisch schafft und Risiken für international tätige Unternehmen birgt, die diese Technologien einsetzen.
Ergebnisse:
- KI-Modelle liefern überraschenderweise fairere Antworten auf Spanisch als auf Englisch.
- Die Modelle sind jedoch weniger effektiv bei der Identifizierung und Ablehnung von voreingenommenen Fragen, wenn diese auf Spanisch gestellt werden.
- Die Fairness von KI verbessert sich erheblich, wenn Fragen direkt und unmissverständlich sind, im Gegensatz zu indirekten oder vagen Fragen.
- Bei ausreichend klarem Kontext können alle getesteten Modelle anfängliche Stereotypen überwinden, um sehr faire Antworten zu geben.
- Die allgemeine Genauigkeit eines Modells bei neutralen Aufgaben garantiert nicht seine Fairness, was auf einen möglichen Kompromiss zwischen Leistung und ethischem Verhalten hinweist.
Mehr
Vergara Brunal, Ligia Amparo; Hristova, Diana; Schaal, Markus
Adopting Generative AI in Industrial Product Companies: Challenges and Early Pathways GenAI, AI Adoption, Industrial Product Companies, AI in Manufacturing, Digital Transformation
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, wie produzierende Industrieunternehmen Generative KI (GenAI) einführen, indem sie zentrale Hindernisse und praktische Lösungen identifiziert. Basierend auf Experteninterviews mit Branchenführern und Technologieanbietern analysiert die Forschung Herausforderungen in den Bereichen Technologie, Organisation und Umfeld. Die Ergebnisse bieten Unternehmen Orientierung, um über das Experimentieren hinauszugehen und mit GenAI einen sinnvollen Wert zu schaffen.
Problem:
Während GenAI viele Branchen umwandelt, ist ihre Einführung in Industrieunternehmen
besonders schwierig. Diesen Unternehmen mangelt es oft an tiefgreifender digitaler Expertise, und sie müssen neue Technologien in komplexe Altsysteme integrieren, die Hardware, Software und Dienstleistungen umfassen. Dies schafft eine erhebliche Lücke zwischen dem Hype um GenAI und den praktischen Herausforderungen bei der vollen Ausschöpfung ihrer Wirkung.
Ergebnisse:
- Bewältigen Sie technische Probleme wie KI-'Halluzinationen' und inkonsistente Ergebnisse, indem Sie Modelle mit internen Unternehmensdaten (RAG) erden und standardisierte Tests sowie Prompt-Protokollierung implementieren.
- Gehen Sie organisatorische Herausforderungen an, indem Sie von komplexen ROI-Berechnungen zu einfacheren KPIs wie Nutzerakzeptanz und Zeitersparnis wechseln und Hype durch realistische Mitarbeiterschulungen managen.
- Mildern Sie das Dilemma 'Make or Buy', indem Sie Technologieanbieter zwingen, ihre Entwicklungs-Roadmaps zu teilen, was eine bessere strategische Ausrichtung ermöglicht und Investitionen in schnell veraltete Inhouse-Lösungen vermeidet.
- Bewältigen Sie externe Risiken wie Vendor Lock-in und regulatorische Unsicherheiten, indem Sie modellunabhängige Architekturen aufbauen, um einfach zwischen KI-Anbietern wechseln zu können, und klare Compliance-Frameworks etablieren.
Mehr
Paffrath, Vincent; Wlcek, Manuel; Wortmann, Felix
AI-Powered Teams: How the Usage of Generative AI Tools Enhances Knowledge Transfer and Knowledge Application in Knowledge-Intensive Teams Human-AI Collaboration, AI in Knowledge Work, Collaboration
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, wie generative KI (GenAI)-Tools wie ChatGPT und GitHub Copilot das Wissensmanagement und die Teamleistung in der Softwareentwicklung beeinflussen. Anhand einer Umfrage unter 80 Softwareentwicklern untersucht die Forschung den Zusammenhang zwischen der Nutzung von GenAI, den Prozessen des Wissenstransfers und der Wissensanwendung sowie der allgemeinen Teameffektivität.
Problem:
Während die Produktivitätsvorteile von GenAI für Einzelaufgaben deutlich werden, sind ihre breiteren Auswirkungen auf Wissensprozesse und die Leistung auf Teamebene noch nicht gut verstanden. Ohne klares Verständnis laufen Unternehmen Gefahr, negative Folgen wie den Verlust menschlicher Expertise oder eine geringere Wissensspeicherung bei der Integration dieser leistungsstarken Werkzeuge zu erleiden.
Ergebnisse:
- Die Nutzung von GenAI-Tools hat einen signifikanten positiven Einfluss sowohl auf den Wissenstransfer (Informationsaustausch) als auch auf die Wissensanwendung (Nutzung von Informationen zur Problemlösung) in Softwareteams.
- Der Einsatz von GenAI verbessert direkt die Gesamtleistung des Teams, hauptsächlich durch die Verbesserung der Wissensanwendung durch die Teams.
- Alleiniger Wissenstransfer mittels GenAI verbessert die Teamleistung nicht signifikant; das Wissen muss aktiv angewendet werden, um wirksam zu sein.
- GenAI fungiert als eine "kognitive Erweiterung" für Teams und hilft ihnen, effizienter zu arbeiten. Unternehmen müssen jedoch die Integration sorgfältig managen, um übermäßige Abhängigkeit zu vermeiden und wertvolle menschliche Zusammenarbeit zu erhalten.
Mehr
Bruhin, Olivia; Bumann, Luc; Ebel, Philipp
Metrics for Digital Group Workspaces: A Replication Study Collaboration Analytics, Enterprise Collaboration Systems, Group Workspaces, Digital Traces, Replication Study
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie repliziert und validiert einen zehn Jahre alten Satz von Metriken zur Analyse der Benutzeraktivität in digitalen Kollaborationstools. Durch die Anwendung von Messgrößen wie Aktivität und Produktivität auf eine moderne Plattform bestätigt die Forschung ihre anhaltende Relevanz für das Verständnis von Teamzusammenarbeit. Die Studie führt auch eine neue Methode, Collaborative Work Codes (CWC), ein und testet diese, um differenziertere Einblicke zu geben, wie verschiedene Teamtypen (z. B. Projekte, Abteilungen) diese digitalen Arbeitsbereiche nutzen.
Problem:
Mit dem Aufkommen von Remote- und Hybridarbeit verlassen sich Unternehmen zunehmend auf digitale Kollaborationssoftware, die riesige Mengen an Benutzerdaten generiert. Diesen Plattformen fehlen jedoch typischerweise integrierte Analysetools, sodass Managern klare Einblicke fehlen, wie ihre Teams arbeiten, zusammenarbeiten oder die Tools nutzen. Dies erschwert die Optimierung von Arbeitsabläufen und die Unterstützung der Produktivität.
Ergebnisse:
- Ein jahrzehntealtes Metrikset zur Messung von Aktivität, Produktivität und Kooperation in digitalen Arbeitsbereichen bleibt auf modernen Kollaborationsplattformen gültig und wirksam.
- Verschiedene Arten von Arbeitsgruppen (Projekte, Abteilungen und Schulungen) weisen unterschiedliche und vorhersagbare Aktivitätsmuster auf, die zur Identifizierung und Profilierung von ihnen genutzt werden können.
- Eine neue Methode unter Verwendung von Collaborative Work Codes (CWC) bietet ein detaillierteres Verständnis von Benutzeraktionen (z. B. Informationsabruf vs. Inhaltserstellung) und verbessert die Analyse von Arbeitsbereichen.
- Die Studie bestätigte das Pareto-Prinzip (die '80-20-Regel') in Projekt- und Abteilungsarbeitsbereichen, wo eine kleine Anzahl von Benutzern die Mehrheit der Aktivität erzeugt.
- Ein praktischer Rahmen, eine sogenannte 'morphologische Box', wurde entwickelt, um Führungskräften bei der Klassifizierung ihrer digitalen Arbeitsbereiche auf der Grundlage von Attributen wie Teamgröße und Aktivitätsmustern zu helfen und so ein besseres Management zu ermöglichen.
Mehr
Schubert, Petra; Just, Martin
Configurations of Digital Choice Environments: Shaping Awareness of the Impact of Context on Choices Digital choice environments, digital interventions, configuration.
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, wie das Layout einer Website, bekannt als Digital Choice Environment (DCE), Kundenentscheidungen beeinflusst. Mithilfe eines Online-Experiments mit 421 Teilnehmern in einem fiktiven E-Commerce-Shop testeten die Forscher, wie die Anwesenheit und Platzierung von Website-Elementen, wie einem Chatbot, Kaufentscheidungen beeinflussen und mit Marketing-Anreizen wie „Bestseller“-Tags interagieren. Ziel war es, die subtile, aber signifikante Rolle der gesamten Website-Konfiguration für das Nutzerverhalten zu verstehen.
Problem:
Unternehmen fügen ihren Websites häufig Elemente wie Chatbots oder Werbe-Tags hinzu, um Kundenentscheidungen zu lenken, oft ohne den bestehenden Layout zu berücksichtigen. Es ist weitgehend unbekannt, wie das gesamte Website-Design mit diesen neuen Elementen interagiert, was potenziell zu ineffektiven oder kontraproduktiven Ergebnissen führt. Diese Forschung schließt die Lücke im Verständnis, wie die vollständige digitale Umgebung die Wirksamkeit einzelner Designentscheidungen und Interventionen prägt.
Ergebnisse:
- Die bloße Anwesenheit einer Website-Komponente wie eines Chatbots verändert Kundenkaufentscheidungen signifikant. Im Experiment verdoppelte die Hinzufügung eines Chatbots ungefähr die Wahrscheinlichkeit, dass ein bestimmtes Produkt gewählt wird.
- Die Platzierung von Website-Komponenten ist entscheidend. So führte beispielsweise ein Chatbot, der auf der linken Seite des Bildschirms platziert war, zu anderen Produktwahlen als einer, der auf der rechten Seite platziert war.
- Ein Chatbot und ein Marketing-Nudge (ein „Bestseller“-Tag) beeinflussten die Entscheidungen unabhängig voneinander. Der Chatbot schwächte die Wirksamkeit des Nudge nicht ab, was darauf hindeutet, dass mehrere Designelemente parallel ohne Beeinträchtigung wirken können.
- Unternehmen müssen das gesamte Layout der Website als ein zusammenhängendes System betrachten, da selbst kleine Änderungen an einer Komponente unerwartete Auswirkungen auf das Benutzerverhalten und den Erfolg von Marketingbemühungen haben können.
Lost in Possibilities: A Literature Review Toward Archetypes of GenAI-Based Tools for Innovation Processes Generative Artificial Intelligence, Innovation Management, GenAI Characteristics, Creative Process, Literature Review.
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie analysiert bestehende Forschung, um einen Rahmen für das Verständnis der verschiedenen Generative AI (GenAI)-Werkzeuge zu schaffen, die in der Geschäftsinnovation eingesetzt werden. Durch eine strukturierte Literaturrecherche schlägt das Papier ein Klassifizierungssystem basierend auf der sozio-technischen Theorie vor. Ziel ist es, Klarheit in den überfüllten Markt für GenAI-Anwendungen zu bringen und Manager bei deren effektiver Integration zu unterstützen.
Problem:
Die rasante Verbreitung generativer KI (GenAI)-Tools hat eine verwirrende Landschaft für Unternehmen geschaffen. Innovationsmanager haben kein klares Verständnis der verschiedenen verfügbaren Tool-Typen, was es schwierig macht, sie auszuwählen, zu vergleichen und effektiv in ihre Innovationsprozesse zu integrieren.
Ergebnisse:
- GenAI-Werkzeuge können in vier Schlüsseldimensionen kategorisiert werden, um Auswahl und Implementierung zu leiten.
- Menschen: Werkzeuge unterscheiden sich danach, ob sie für Einzelpersonen oder Teams bestimmt sind und wie Benutzer mit der KI interagieren (z. B. als Mitgestalter oder Delegator).
- Organisation: Die Klassifizierung sollte berücksichtigen, wie ein Werkzeug in ein Unternehmen passt, einschließlich Datensicherheit, Ethik und branchenspezifischer Anforderungen.
- Aufgabe: Werkzeuge unterstützen verschiedene Innovationsphasen, wie z. B. Ideenfindung (divergentes Denken) oder Bewertung (konvergentes Denken).
- Technologie: Die technischen Fähigkeiten variieren, einschließlich des Automatisierungsgrads im Vergleich zur menschlichen Augmentierung, der Transparenz und der Kompatibilität mit anderen Systemen.
Mehr
Straub, Lisa; Zeiß, Christian; Nganga, Mary-Anne; Winkelmann, Axel
Digital Detox: Understanding Knowledge Workers' Motivators and Requirements for Technostress Relief Digital Detox, Technostress, Knowledge Worker, ICT
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, warum und wie Wissensarbeiter „Digital Detox“ nutzen, um arbeitsplatzbedingten Stress durch Technologie (Technostress) zu bewältigen. Basierend auf 16 semistrukturierten Interviews mit Fachleuten identifiziert die Forschung die Hauptmotivationen und notwendigen Bedingungen für ein erfolgreiches Abschalten von digitalen Arbeitswerkzeugen. Die Arbeit untersucht Digital Detox als eine Bewältigungsstrategie, die eine psychologische Distanzierung am modernen Arbeitsplatz ermöglicht.
Problem:
Die ständige Konnektivität und Informationsüberflutung durch digitale Technologien am Arbeitsplatz führen zu erhöhtem Mitarbeiterstress, Burnout und reduzierter Leistungsfähigkeit, ein Phänomen, das als Technostress bekannt ist. Organisationen fehlt ein klares Verständnis dafür, warum Mitarbeiter eine Trennung suchen und welche Unterstützung sie benötigen, um digitale Entgiftung effektiv zu praktizieren, ohne Flexibilität oder Produktivität zu beeinträchtigen.
Ergebnisse:
- Die Hauptmotivationen für einen digitalen Detox sind die Verbesserung des Wohlbefindens (durch mentales Abschalten von der Arbeit) und der Arbeitsleistung (durch Erhöhung von Fokus und Effizienz).
- Digitaler Detox ist eine direkte Reaktion auf spezifische Stressfaktoren wie „Techno-Überlastung“ (zu viele Informationen und Tempo) und „Techno-Invasion“ (Arbeit, die in die persönliche Zeit eindringt).
- Ein erfolgreicher digitaler Detox erfordert eine Kombination aus individueller Verantwortung (z. B. Disziplin, Selbstbeherrschung) und organisatorischer Verantwortung (z. B. unterstützende Richtlinien, Zustimmung der Führungsebene und eine Kultur, die Ausfallzeiten respektiert).
- Sowohl Einzelpersonen als auch ihre Organisationen müssen zusammenarbeiten, um einen effektiven digitalen Detox zu ermöglichen, da individuelle Bemühungen durch organisatorische Erwartungen ständiger Erreichbarkeit untergraben werden können.
- Flexibilität ist entscheidend und ermöglicht es den Mitarbeitern, Detox-Strategien (vom Deaktivieren von Benachrichtigungen bis zur Planung von Fokuszeiten) zu wählen, die ihren spezifischen Rollen und Arbeitsanforderungen entsprechen.
Mehr
Langer, Marie; Mirbabaie, Milad; Renna, Chiara
Revisiting the Responsibility Gap in Human–AI Collaboration from an Affective Agency Perspective Artificial Intelligence (AI), Responsibility Gap, Responsibility in Human–AI collaboration, Decision-Making, Sociomateriality, Affective Agency
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, wie sich Verantwortung in der Mensch-KI-Kollaboration entwickelt, insbesondere im Hinblick auf die „Verantwortungslücke“, bei der die Rechenschaftspflicht unklar ist. Ausgehend von einer Perspektive der affektiven Handlungsfähigkeit untersucht die Forschung, wie menschliche Emotionen und Beziehungen zur Technologie die Zuweisung von Verantwortung beeinflussen. Die Methodik umfasste qualitative Interviews mit Experten aus verschiedenen Berufsfeldern, um die Praktiken in der realen Welt zu verstehen.
Problem:
Wenn KI-Systeme autonome Entscheidungen beeinflussen oder treffen, wird es schwierig, die Schuld für Fehler zuzuweisen, was zu einer „Verantwortungslücke“ führt. Diese Unklarheit birgt erhebliche ethische und rechtliche Herausforderungen in kritischen Bereichen, da traditionelle Rechenschaftsmodelle, die auf einem einzelnen menschlichen Entscheidungsträger basieren, nicht mehr ausreichen. Die Studie befasst sich mit dem dringenden Bedarf, zu verstehen, wie Verantwortung in kollaborativen Mensch-KI-Umgebungen klar definiert und aufrechterhalten werden kann.
Ergebnisse:
- Anstatt die menschliche Verantwortlichkeit zu verringern, intensiviert die Nutzung von KI diese oft und zwingt die Nutzer dazu, bei der Validierung der Systemausgaben kritischer und wachsamer zu sein.
- Fachleute betrachten KI als unterstützendes Werkzeug oder „Sparringspartner“ und nicht als Ersatz für menschliches Urteilsvermögen; die endgültige Entscheidung und die ultimative Verantwortung liegen fest beim menschlichen Nutzer.
- Die inhärente Unsicherheit von KI-Systemen fördert einen vorsichtigen und engagierten Ansatz, bei dem Emotionen wie Vertrauen und Skepsis aktiv die Übernahme von Verantwortung gestalten.
- Es entwickelt sich ein Modell der geteilten Verantwortung, bei dem Entwickler für Transparenz und ethisches Design verantwortlich sind, während die Nutzer für die kontextbezogene Anwendung von KI-Werkzeugen verantwortlich sind.
- Die Studie unterstreicht einen klaren Bedarf an stärkeren Vorschriften und organisatorischen Richtlinien zur formellen Definition von Rollen und Haftungspflichten in der Mensch-KI-Kollaboration.
Protection or Restriction? – Unraveling the Autonomy-Disclosure Paradox in Light of Privacy Defaults Privacy, Privacy-by-Default, Autonomy, Information Boundary Theory
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht die unbeabsichtigten psychologischen Auswirkungen von Privacy-by-Default (PBD)-Einstellungen in mobilen Anwendungen. Unter Verwendung der Information-Boundary-Theorie untersucht die Forschung, wie automatisch erzwungene Datenschutzkontrollen paradoxerweise das Autonomiegefühl eines Nutzers verringern können. Die Studie schlägt ein Online-Feldexperiment vor, um zu testen, wie PBD die Absicht eines Nutzers zur Offenlegung persönlicher Informationen beeinflusst.
Problem:
Während Datenschutz-voreingestellt allgemein als bewährte Methode zum Schutz von Benutzerdaten gilt, kann dies für Benutzer zu einem Konflikt führen. Durch den Wegfall aktiver Entscheidungen können diese Standardeinstellungen das Gefühl der Kontrolle und Autonomie des Einzelnen über seine persönlichen Daten untergraben, was potenziell zu unbeabsichtigten Verhaltensweisen führen und die Gestaltung effektiver Datenschutzsysteme erschweren kann.
Ergebnisse:
- Privacy-by-Default (PBD) kann ein „Autonomie-Offenlegungs-Paradoxon“ erzeugen: Während es Nutzer schützt, kann es auch deren Gefühl der Kontrolle verringern.
- Ein vermindertes Autonomiegefühl kann die Entscheidungsfindung eines Nutzers bezüglich der Informationsweitergabe negativ beeinflussen.
- Der Kontext (z. B. berufliche vs. private App-Nutzung) beeinflusst maßgeblich, wie Nutzer auf standardmäßige Datenschutzeinstellungen reagieren.
- Die Forschung stellt die einfache Annahme in Frage, dass PBD für Nutzer immer von Vorteil ist, und hebt hervor, dass es deren Gefühl der Handlungsfähigkeit schmälern kann.
- App-Designer und politische Entscheidungsträger sollten ein Gleichgewicht zwischen schützenden Standardeinstellungen und sinnvoller Nutzerermächtigung anstreben, um negative psychologische Effekte zu vermeiden.
Mehr
Kessler Verzar, Verena; Frenzel-Piasentin, Adeline; Veit, Daniel
To Leave or Not to Leave: A Configurational Approach to Understanding Digital Service Users’ Responses to Privacy Violations Through Secondary Use Privacy Violation, Secondary Use, Qualitative Comparative Analysis, QCA
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, wie Nutzer reagieren, wenn sie wahrnehmen, dass ihre persönlichen Daten von einer externen Partei für einen sekundären Zweck (External Secondary Use oder ESU) verwendet wurden, was sie als Verletzung ihrer Privatsphäre betrachten. Mithilfe der Qualitative Comparative Analysis (QCA) und der Attributionstheorie identifiziert die Forschung spezifische Kombinationen von Faktoren – wie die Emotionen, Erwartungen und das Kontrollgefühl des Nutzers –, die dazu führen, dass sie entweder das Teilen von Daten einschränken oder die Nutzung eines digitalen Dienstes ganz einstellen.
Problem:
Digitale Dienste sammeln Nutzerdaten häufig zu einem Zweck und geben sie dann für andere Zwecke an Dritte weiter, z. B. für gezielte Werbung. Diese Praxis, bekannt als externe sekundäre Nutzung (ESU), ist ein wachsender Datenschutzbedenken, der das Vertrauen der Nutzer untergraben kann. Wenn Nutzer das Gefühl haben, dass ihre Privatsphäre verletzt wurde, können sie Maßnahmen ergreifen, die das Geschäft negativ beeinflussen, wie z. B. die Einstellung des Dienstes oder die Einschränkung der Datenerfassung, aber es ist oft unklar, welche spezifischen Faktoren diese unterschiedlichen negativen Reaktionen auslösen.
Ergebnisse:
- Unterschiedliche emotionale Reaktionen führen zu unterschiedlichen Nutzeraktionen: Angst führt oft dazu, dass Nutzer ihre Informationsweitergabe einschränken, während sie den Dienst weiterhin nutzen, während Wut ein starker Prädiktor für die vollständige Einstellung der Nutzung des Dienstes durch die Nutzer ist.
- Nutzer stellen die Nutzung eines Dienstes eher ein, wenn die Datenschutzverletzung unerwartet war (z. B. unerbetene Anrufe). Wenn sie eine solche Datennutzung vorhergesehen haben, schränken sie ihre Daten eher ein, bleiben aber Kunde.
- Der Glaube eines Nutzers an seine Fähigkeit, Schutzmaßnahmen zu ergreifen (Selbstwirksamkeit), spielt eine Schlüsselrolle. Wenn wütende Nutzer sich befähigt fühlen zu handeln, sind sie eher geneigt, den Dienst zu verlassen.
- Die Art der Verletzung spielt eine Rolle. Unerbetener direkter Kontakt wird als schwerwiegender empfunden und führt eher dazu, dass Nutzer den Dienst verlassen, im Vergleich zum Erhalt gezielter Web-Anzeigen.
- Unternehmen können negative Folgen abmildern, indem sie transparent über ihre Datenweitergabepraktiken informieren, um die Erwartungen der Nutzer zu steuern, und indem sie die spezifischen Ursachen für die Wut der Nutzer angehen, um die Kundenbindung zu verbessern.
Mehr
Wagner, Christina; Trenz, Manuel; Tan, Chee-Wee; Veit, Daniel
Venture Clienting in the Public Sector - Hastening Technology Procurement or Just Another Digital Innovation Unit? venture client, govtech, public sector, public innovation
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht das Modell des „Venture Clients“, ursprünglich aus dem Privatsektor, als Methode für öffentliche Institutionen, die Einführung neuer Technologien zu beschleunigen. Anhand einer Fallstudie der ersten eigens dafür eingerichteten Venture-Client-Einheit des öffentlichen Sektors bewertet die Forschung Interviews mit staatlichen Technologie-Start-ups (GovTechs), um das Potenzial des Modells zur Beschleunigung der Beschaffung und zur Förderung von Innovationen einzuschätzen. Ziel ist es zu verstehen, ob dieses Modell eine praktikable Alternative zu traditionellen, oft langsamen Beschaffungsprozessen darstellt.
Problem:
Öffentliche Organisationen stehen unter erheblichem Druck, zu innovieren und moderne Technologien einzuführen, um den Forderungen der Bürger gerecht zu werden, werden aber oft durch langsame, bürokratische und risikoscheue Beschaffungsprozesse behindert. Obwohl verschiedene Innovationsstrategien existieren, mangelt es an akademischer Forschung und empirischen Belegen dafür, wie das Venture-Client-Modell – die Zusammenarbeit mit Start-ups ohne direkte Investition – effektiv im einzigartigen Kontext des öffentlichen Sektors angewendet werden kann. Diese Studie zielt darauf ab, diese Lücke zu schließen, indem sie eine erste Analyse der realen Anwendung und der Vorteile des Modells liefert.
Ergebnisse:
- Das Venture-Client-Modell beschleunigt die Technologiebeschaffung dramatisch und verkürzt die Zeitspannen von über zwei Jahren auf nur drei bis sechs Monate.
- Dieser Ansatz bietet signifikante Vorteile für regierungsorientierte Start-ups (GovTechs), indem er deren Time-to-Market verkürzt und ihnen hilft, Lösungen zu skalieren, die auf die Bedürfnisse der öffentlichen Verwaltung zugeschnitten sind.
- Interviews mit GovTechs identifizierten Schlüsselfaktoren für die erfolgreiche Zusammenarbeit mit dem öffentlichen Sektor, darunter ein Referenzkunde, Zugang zu beschleunigter Beschaffung und dedizierte „Sandboxing“-Budgets für Pilotprojekte.
- Die Forschung ist im Gange und es ist noch nicht klar, wie das Modell für spezifische Anwendungsfälle des öffentlichen Sektors angepasst werden muss, um maximalen Wert zu liefern.
Mehr
Bauer, Luca Tom; Degen, Konrad; Westermann, Jan; Niehaves, Björn
Zusammenfassung:
Diese Studie analysiert 48 reale Beispiele von Kreislaufwirtschaften, um gemeinsame Muster der Zusammenarbeit zwischen verschiedenen Organisationen zu identifizieren. Anhand der e³-Wert-Modellierung identifiziert und kategorisiert die Forschung acht wiederkehrende Geschäftsmodelle oder „Konstellationen“. Diese Modelle bieten praktische Blaupausen für Organisationen, die den Übergang zu einer Kreislaufwirtschaft anstreben.
Problem:
Während die Kreislaufwirtschaft einen vielversprechenden Weg zur Nachhaltigkeit bietet, tun sich Unternehmen oft schwer, sie effektiv umzusetzen, da sie eine komplexe Zusammenarbeit mit neuen Partnern erfordert. Es mangelt an einem klaren, strukturierten Verständnis dafür, wie verschiedene Akteure (wie Produzenten, Konsumenten und Recycler) interagieren und Werte austauschen sollten, was die erfolgreiche Einführung von Kreislaufpraktiken behindert.
Ergebnisse:
- Die Forschung identifiziert acht unterschiedliche Kooperationsmodelle („Konstellationen“) für Kreislaufwirtschaften,
gruppiert in drei übergeordnete Kategorien.
- Die erste Kategorie, „Zirkularitätsgetriebene Innovation“, umfasst Modelle, die von Produzenten, Dienstleistern
oder Regulierungsbehörden geleitet werden, um nachhaltigere Produkte und Prozesse zu schaffen.
- Die zweite, „Optimierung der Ressourceneffizienz“, konzentriert sich auf Modelle für das Teilen und die Neuverteilung
nicht ausgelasteter Ressourcen, entweder über einen Vermittler oder Peer-to-Peer-Plattformen.
- Die dritte, „Rückgewinnung von Produkten und Materialien am Lebensende“, beschreibt Modelle für das Sammeln, Verarbeiten und
Wiedereingliedern gebrauchter Produkte in die Wirtschaft, geleitet von spezialisierten „Scavenger“- oder
„Decomposer“-Akteuren.
- Diese Modelle dienen als strategische Blaupausen und helfen Unternehmen dabei, notwendige Partner zu identifizieren und
zu definieren, wie Wert in einem Kreislaufsystem geschaffen und ausgetauscht wird.
Ethical value trade-offs within Smart Cities – preliminary results of a systematic literature review security, privacy, efficiency, smart cities, ethical principles
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie liefert eine vorläufige Analyse der ethischen Herausforderungen bei der Entwicklung von Smart Cities durch eine systematische Literaturrecherche. Die Forschungsmethode umfasst die Identifizierung, Kategorisierung und Synthese von wissenschaftlichen Arbeiten, die die Wertkonflikte verschiedener Interessengruppen diskutieren. Ziel ist es, wiederkehrende ethische Spannungen wie Sicherheit versus Datenschutz zu verstehen, um eine ethisch fundiertere Stadtplanung zu ermöglichen.
Problem:
Während Smart Cities versprechen, das städtische Leben mit fortschrittlichen Technologien zu verbessern, werden bei ihrer Entwicklung oft komplexe ethische Dilemmata vernachlässigt. Dies schafft eine Lücke, in der technologische Effizienz über menschliche Werte gestellt wird, was zu potenziellen Problemen bei Überwachung, sozialer Gerechtigkeit und demokratischer Teilhabe führt. Das Fehlen eines klaren ethischen Rahmens zur Steuerung dieser Projekte bedeutet, dass die Bedürfnisse und Rechte der verschiedenen Stadtbewohner übersehen werden können.
Ergebnisse:
- Der am häufigsten diskutierte ethische Konflikt in der Smart-City-Literatur ist die Spannung zwischen der Erhöhung der öffentlichen Sicherheit durch Überwachung und dem Schutz des Rechts der Bürger auf Privatsphäre.
- Das Streben nach technologischer Effizienz führt oft zu sozialer Ausgrenzung, da Optimierungssysteme bestehende Ungleichheiten verstärken und nicht allen Gemeindemitgliedern gerecht werden können.
- Viele Smart-City-Projekte werden von einer „solutionistischen“ Denkweise angetrieben, die schnelle Innovation über ethische Aufsicht und öffentliche Beratung stellt und möglicherweise die demokratische Legitimität untergräbt.
- Ethische Spannungen sind keine Einzelfälle, sondern oft strukturell in Design und Governance von Smart-City-Systemen eingebettet und verdeutlichen eine systemische Herausforderung.
- Es besteht ein breiter Konsens über die Notwendigkeit transparenter, partizipativer Prozesse, die Wertkonflikte explizit machen und öffentliche Debatte und Rechenschaftspflicht ermöglichen.
Mehr
Fernholz, Yannick; Kox, Thomas; Rohwedder, Sebastian; Ziegler, Ferdinand; Gerhold, Lars
To VR or not to VR? A Taxonomy for Assessing the Suitability of VR in Higher Education Virtual Reality Suitability, Learning Content, Taxonomy, Higher Education.
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie entwickelt einen Entscheidungsrahmen, eine sogenannte Taxonomie, um Hochschullehrenden dabei zu helfen, systematisch zu bewerten, ob Virtual Reality (VR) für ihre spezifischen Lehrinhalte geeignet ist. Die Taxonomie wurde durch die Kombination etablierter Bildungstheorien mit Erkenntnissen aus Experteninterviews und einer Literaturrecherche erstellt. Der daraus resultierende Rahmen hilft, Gründe für und gegen den Einsatz von VR über fünf Dimensionen hinweg zu klassifizieren und Lehrende bei ihren Entscheidungen zur Technologieadoption zu leiten.
Problem:
Trotz wachsenden Interesses an der Nutzung von Virtual Reality (VR) in der Hochschulbildung fehlt vielen Dozenten eine strukturierte Methode, um festzustellen, ob die Technologie für ihre spezifischen Kurse tatsächlich geeignet ist. Dies schafft eine erhebliche Lücke, da Entscheidungen zur Einführung von VR oft ohne klares Verständnis ihrer potenziellen Vorteile oder Einschränkungen für ein bestimmtes Fach getroffen werden. Folglich fällt es Pädagogen, insbesondere denen ohne Vorerfahrung mit VR, schwer, fundierte Entscheidungen zu treffen.
Ergebnisse:
- Die Forschung produzierte eine umfassende Taxonomie, um Pädagogen bei der Bewertung der Eignung von VR für spezifische Lerninhalte zu unterstützen.
- Der Rahmen ist in fünf Schlüsseldimensionen gegliedert: Lernziele, Lernaktivitäten, Lernbewertung, sozialer Einfluss und hedonische Motivation.
- Sie identifiziert spezifische Szenarien, in denen VR von Vorteil ist, wie z. B. die Simulation gefährlicher oder unzugänglicher Umgebungen, die Ermöglichung des Übens komplexer Fähigkeiten und die Schaffung immersiver, fokussierter Lernerfahrungen.
- Die Taxonomie skizziert auch Kontexte, in denen VR weniger geeignet ist, z. B. für Inhalte, die nuanciertes soziales Lernen, umfangreiches Lesen oder kollaborative Schreibaufgaben erfordern.
- Dieses Werkzeug dient als praktische Checkliste, die Pädagogen dabei hilft, eine ausgewogene Erstbewertung vorzunehmen, bevor sie erhebliche Ressourcen für die Entwicklung von VR-basierten Lehrmaterialien aufwenden.
Mehr
Bisswang, Nadine; Richter, Sebastian; Herzwurm, Georg
An Automated Identification of Forward Looking Statements on Financial Metrics in Annual Reports forward-looking statements, 10-K, financial performance prediction, XAI, GenAI
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie präsentiert und evaluiert ein dreiphasiges Decision Support System (DSS), das darauf ausgelegt ist,
automatisch Jahresberichte (10-Ks) von Unternehmen zu analysieren. Das System nutzt Natural Language
Processing (NLP) zur Extraktion zukunftsgerichteter Aussagen, maschinelles Lernen zur Vorhersage des Wachstums zukünftiger Finanzkennzahlen und Generative KI zur Zusammenfassung der Ergebnisse für die Benutzer. Die Methodik wurde an 10-K-Berichten von S&P 500-Unternehmen getestet, die zwischen 2015 und 2022 eingereicht wurden.
Problem:
Investoren und Analysten verlassen sich bei finanziellen Entscheidungen auf lange und komplexe 10-K-Berichte, aber die manuelle Extraktion wichtiger prädiktiver Informationen aus den narrativen Abschnitten ist ineffizient und schwierig. Bestehende automatisierte Tools sind oft intransparent oder liefern keine spezifischen, umsetzbaren Prognosen, die an Finanzkennzahlen gekoppelt sind. Diese Forschung befasst sich mit dem Bedarf an einem automatisierten System, das unstrukturierte Texte in transparente, kennzahlenspezifische Leistungsprognosen umwandeln kann.
Ergebnisse:
- Das System extrahierte zukunftsgerichtete Aussagen zu spezifischen Finanzkennzahlen mit 94% Genauigkeit.
- Ein Random-Forest-Machine-Learning-Modell übertraf ein komplexeres FinBERT-Modell bei der Vorhersage zukünftigen Metrikwachstums, was darauf hindeutet, dass einfachere Modelle für diese Aufgabe effektiver sein können.
- Die Verwendung von textlichen zukunftsgerichteten Aussagen verbesserte die Vorhersagegenauigkeit signifikant im Vergleich zu einem Basismodell, das nur vergangene Finanzdaten verwendete.
- KI-generierte Zusammenfassungen des Finanzinerjaussicht wurden hinsichtlich faktischer Konsistenz und Lesbarkeit hoch bewertet (durchschnittliche Punktzahl von 3,69 von 4), wodurch die Ausgabe des Systems für Entscheidungsträger transparenter und nützlicher wurde.
Mehr
Nguyen, Khanh Le; Hristova, Diana
Algorithmic Management: An MCDA-Based Comparison of Key Approaches Algorithmic Management, Multi-Criteria Decision Analysis (MCDA), Risk Management, Organizational Control.
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie verwendet die Multi-Kriterien-Entscheidungsanalyse (MCDA), um vier verschiedene Ansätze zur Steuerung algorithmischer Managementsysteme am Arbeitsplatz zu bewerten und zu vergleichen. Basierend auf einem strukturierten Fragebogen mit 27 Experten aus Wissenschaft, Industrie und Regierung bewertet die Forschung prinzipienbasierte, regelbasierte, risikobasierte und auditbasierte Modelle anhand von Kriterien wie Effektivität, Machbarkeit und Anpassungsfähigkeit.
Problem:
Unternehmen setzen zunehmend Algorithmen zur Steuerung von Mitarbeitern ein, was zwar die Effizienz steigert, aber auch Bedenken hinsichtlich Fairness, Transparenz und dem Wohlbefinden der Mitarbeiter aufwirft. Es besteht eine signifikante Lücke im Verständnis, wie diese Systeme am besten gesteuert werden können, da es wenig empirische Beweise für den Vergleich verschiedener strategischer Ansätze gibt. Diese Studie adressiert den Mangel an einem klaren, evidenzbasierten Rahmen für Organisationen, um das effektivste und verantwortungsvollste Governance-Modell auszuwählen.
Ergebnisse:
- Experten bevorzugen überwiegend einen hybriden, risikobasierten Ansatz für die Steuerung algorithmischer Managementsysteme, da dieser in Bezug auf Effektivität, Anpassungsfähigkeit und Akzeptanz bei den Beteiligten am höchsten bewertet wurde.
- Dieses hybride Modell verbindet erfolgreich die Flexibilität von übergeordneten Prinzipien mit der Klarheit spezifischer Regeln und passt die Intensität der Steuerung an das Ausmaß potenzieller Schäden an.
- Reine regelbasierte Systeme wurden als zu starr und langsam für die Anpassung an neue Technologien eingeschätzt, während rein prinzipienbasierte Ansätze als zu abstrakt und schwer durchsetzbar galten.
- Die wichtigste Geschäftsempfehlung ist, „Einheitslösungen“ aufzugeben. Stattdessen sollten Unternehmen ihre algorithmischen Werkzeuge nach Risikostufe klassifizieren und strengere Kontrollen (z. B. menschliche Aufsicht, Bias-Audits) nur auf Hochrisikoanwendungen wie die automatisierte Einstellung oder Entlassung anwenden.
Mehr
Jeppe, Arne; Bree, Tim; Karger, Erik
The App, the Habit, and the Change: Digital Tools for Multi-Domain Behavior Change Digital Behavior Change Application, Habit Formation, Behavior Change Support System, Mobile Application
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie analysiert 36 zeitgenössische Apps zur Gewohnheitsbildung, um zu verstehen, wie sie
Lebensstiländerungen in mehreren, miteinander verbundenen Bereichen unterstützen. Mittels Inhaltsanalyse
kategorisierten Forscher 585 spezifische Verhaltensratschläge in 20 übergeordnete Kategorien. Ziel war es,
Schlüsselmuster im App-Design zu identifizieren, um Nutzern und Entwicklern Einblicke in die Auswahl und
Erstellung effektiverer, ganzheitlicher Gewohnheitsverfolgungstools zu geben.
Problem:
Die erfolgreiche Einführung einer positiven Gewohnheit kann einen Dominoeffekt auslösen, der zu Verbesserungen in anderen Lebensbereichen führt, wie beispielsweise dass Sport die Ernährung und den Schlaf verbessert. Es ist jedoch unklar, ob und wie aktuelle mobile Gewohnheits-Tracker-Apps darauf ausgelegt sind, diese miteinander verbundenen Verhaltensweisen zu nutzen, um umfassende Lebensstiländerungen zu unterstützen. Diese Forschung schließt diese Lücke, indem sie untersucht, welche Verhaltensweisen von Apps empfohlen werden und wie diese miteinander verknüpft sind.
Ergebnisse:
- Körperliche Bewegung ist das dominanteste und am häufigsten empfohlene Verhalten in Gewohnheits-Apps und dient als zentraler Anker, der stark mit Ernährung, Freizeitaktivitäten und Schlaf verknüpft ist.
- Die meisten Gewohnheits-Apps fördern einen multimodalen Ansatz und bieten Vorschläge in durchschnittlich 13 verschiedenen Lebensstilkategorien an, was auf einen Trend hin zu ganzheitlichem Wohlbefinden hindeutet.
- Apps, die ein breiteres Spektrum an Lebensstilbereichen abdecken, bieten tendenziell auch fortschrittlichere Funktionen und Möglichkeiten zur Gewohnheitsbildung.
- Benutzerzufriedenheit ist nicht durch funktionale Vielfalt garantiert; das bloße Anbieten von mehr Funktionen oder einer größeren Vielfalt an Gewohnheitsvorschlägen korreliert nicht direkt mit höheren App-Store-Bewertungen.
- Bestimmte Ziele, wie z. B. Gewichtsmanagement, werden in Apps oft isoliert behandelt, anstatt in einen breiteren, vernetzten Lebensstilansatz integriert zu werden.
Mehr
Reinsch, Felix; Kählig, Maren; Neubauer, Maria; Stark, Jeannette; Schlieter, Hannes
AI Agents as Governance Actors in Data Trusts – A Normative and Design Framework Data Trusts, Normative Framework, AI Governance, Fairness, AI Agents
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie präsentiert einen Rahmen für die sichere Integration von Agenten der Künstlichen Intelligenz (KI) in Datentreuhandschaften, Organisationen, die Daten im Auftrag anderer verwalten. Sie schlägt vier zentrale Designprinzipien vor, die aus Treuhänderpflichten und KI-Ethik abgeleitet sind, um die Entwicklung vertrauenswürdiger KI-gestützter Governance-Systeme zu leiten. Ziel ist es, die Effizienzgewinne durch KI-Automatisierung mit der Notwendigkeit einer verantwortungsvollen und ethischen Datenverwaltung auszugleichen.
Problem:
Da Datentreuhänder zur Verwaltung sensibler Informationen entstehen, gibt es Bestrebungen, KI für mehr Effizienz einzusetzen. Der Einsatz von KI birgt jedoch erhebliche Risiken, wie algorithmische Voreingenommenheit, mangelnde Transparenz (das „Black-Box-Problem“) und potenzielle Interessenkonflikte, die das für das Funktionieren dieser Institutionen unerlässliche Vertrauen untergraben können. Dieses Papier befasst sich mit dem Fehlen einer klaren Anleitung, wie KI in einem Datentreuhänder eingesetzt werden kann, ohne die grundlegenden Pflichten der Loyalität und Sorgfalt gegenüber den Dateneigentümern zu beeinträchtigen.
Ergebnisse:
- Sicherstellen, dass KI im besten Interesse der Dateneigentümer handelt: KI-Systeme müssen mit „treuhänderischer Ausrichtung“ konzipiert werden, wobei die Interessen der Begünstigten Vorrang vor kommerziellen oder anderen externen Zielen haben.
- Rechenschaftspflicht mit vollständiger Nachverfolgbarkeit wahren: Da KI-Agenten nicht rechtlich haftbar gemacht werden können, müssen alle ihre Entscheidungen protokolliert und überprüfbar sein, um sicherzustellen, dass menschliche Betreiber zur Rechenschaft gezogen werden können.
- KI-Betrieb transparent und erklärbar machen: Das System sollte klare Erklärungen für KI-gesteuerte Entscheidungen liefern und den Stakeholdern durch Dashboards Sichtbarkeit bieten, um institutionelles Vertrauen aufzubauen und aufrechtzuerhalten.
- Menschliche Autonomie und Kontrolle bewahren: Daten-Governance muss eine dynamische Zustimmung ermöglichen, bei der Dateneigentümer Berechtigungen kontinuierlich überwachen und anpassen können, wobei menschliche Überprüfung für kritische Entscheidungen und Konfliktlösung erforderlich ist.
Mehr
Arz von Straussenburg, Arnold F.; Marga, Jens Joachim; Aldenhoff, Timon T.; Riehle, Dennis M.
Generative AI Value Creation in Business-IT Collaboration: A Social IS Alignment Perspective Information systems alignment, social, GenAI, PLS-SEM
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht empirisch, wie der Einsatz von generativer KI (GenAI) durch das Management die sozialen Dynamiken der Zusammenarbeit zwischen Wirtschaft und IT beeinflusst. Mithilfe eines Literaturüberblicks, einer Expertenbefragung von 61 Führungskräften und statistischer Modellierung analysiert die Forschung die Auswirkungen von GenAI auf Kommunikation, geteiltes Wissen und gegenseitiges Verständnis zwischen den Abteilungen Wirtschaft und IT.
Problem:
Während Unternehmen GenAI rasant einführen, bleibt dessen Auswirkung auf die entscheidende menschliche Seite der Business-IT-Abstimmung – wie gut Teams kommunizieren, sich gegenseitig verstehen und zusammenarbeiten – weitgehend unerforscht. Eine schlechte Abstimmung zwischen Geschäftszielen und IT-Fähigkeiten kann zu ineffizienten Investitionen und verpassten Chancen führen, ein Problem, das GenAI entweder lösen oder verschlimmern könnte.
Ergebnisse:
- GenAI verbessert die formale Zusammenarbeit zwischen Business und IT erheblich, indem sie den strukturierten Wissensaustausch verbessert und die Entwicklung einer gemeinsamen Sprache zwischen den Abteilungen unterstützt.
- Die Technologie hilft, Wissenslücken zu schließen und das Verständnis von Business-Führungskräften für IT-Konzepte sowie das Verständnis von IT-Führungskräften für Geschäftsstrategien zu verbessern.
- GenAI hat keinen signifikanten Einfluss auf informelle, beziehungsbasierte Interaktionen; Vertrauensbildung und Networking erfordern weiterhin von Menschen geführte Führung und Engagement.
- Um den Wert zu maximieren, sollte das Management GenAI strategisch einsetzen, um die formale Kommunikation und den Wissensaustausch zu optimieren, während gleichzeitig eine Kultur der zwischenmenschlichen Zusammenarbeit aktiv gefördert wird.
Mehr
Gruetzner, Lukas; Goldmann, Moritz; Breitner, Michael H.
Value Propositions of Personal Digital Assistants for Process Knowledge Transfer Personal Digital Assistant, Value Proposition, Process Knowledge, Business Process Management, Guidance
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, wie KI-gestützte persönliche digitale Assistenten (PDAs), wie Chatbots, die Art und Weise verbessern können, wie Unternehmen Wissen über ihre Geschäftsprozesse austauschen. Anhand qualitativer Interviews mit Fachleuten aus verschiedenen Branchen identifiziert die Forschung neun Kernvorteile (Wertangebote), die PDAs für die Übertragung dieses kritischen Wissens bieten.
Problem:
In modernen Unternehmen ist entscheidendes Wissen darüber, wie Arbeit erledigt wird, oft in komplexen Dokumenten vergraben, was es den Mitarbeitern erschwert, darauf zuzugreifen und es effizient zu nutzen. Traditionelle Methoden zum Teilen dieses "Prozesswissens" sind oft langsam und ineffektiv, was zu Fehlern, Ineffizienzen und verpassten Verbesserungsmöglichkeiten führt.
Ergebnisse:
- PDAs machen Prozesswissen zugänglicher, indem sie Routineaufgaben automatisieren und
Mitarbeitern ermöglichen, Informationen und Dokumentation viel schneller zu finden.
- Sie verbessern das Verständnis, indem sie Benutzer über Prozesse aufklären, die Einarbeitung neuer
Mitarbeiter beschleunigen und kontextbezogene Analysen bereitstellen, die sich in andere
Geschäftssysteme integrieren.
- PDAs bieten direkte Anleitung, indem sie schrittweise Ratschläge geben, Prozessoptimierungen
vorschlagen, Standardisierungen durchsetzen und bei datengesteuerten Entscheidungen helfen.
Mehr
Elsensohn, Paula; Burger, Mara; Voß, Marleen; vom Brocke, Jan
Exploring the Design of Augmented Reality for Fostering Flow in Running: A Design Science Study Flow, AR, Sports, Endurance Running, Design Recommendations
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, wie Augmented-Reality-(AR)-Schnittstellen auf Sportbrillen gestaltet werden können, um Ausdauersportlern zu helfen, einen Zustand des "Flows" zu erreichen, einem optimalen mentalen Zustand für Spitzenleistungen. Unter Anwendung eines Design-Science-Research-Ansatzes erstellten und testeten die Autoren einen AR-Display-Prototyp mit neun Läufern über zwei iterative Designzyklen. Ziel der Forschung war es, praktische Gestaltungsprinzipien auf der Grundlage von realem Benutzerfeedback abzuleiten.
Problem:
Für Ausdauerläufer ist das Erreichen und Aufrechterhalten eines Flow-Zustands aufgrund der dynamischen Außenumgebung und der Notwendigkeit einer ständigen, ablenkungsfreien Leistungsrückmeldung eine Herausforderung. Während AR-Technologie eine potenzielle Lösung durch das Überlagern von Daten in das Sichtfeld eines Benutzers bietet, mangelt es an klaren Designrichtlinien dafür, wie AR-Schnittstellen gestaltet werden können, die den Flow bei körperlich anspruchsvollen Aktivitäten wie Laufen effektiv unterstützen, ohne Ablenkungen zu verursachen.
Ergebnisse:
- Geben Sie leicht interpretierbares, nicht-numerisches Feedback: Verwenden Sie visuelle Hinweise wie Farben, Formen und Animationen anstelle von reinen Zahlen, um Läufern zu helfen, ihre Leistung auf einen Blick zu verstehen und die kognitive Belastung zu reduzieren.
- Stellen Sie sicher, dass die Benutzeroberfläche adaptiv und unaufdringlich ist: Die AR-Anzeige sollte Ablenkungen minimieren, sich an unterschiedliche Lichtverhältnisse anpassen und verschiedene Feedback-Level bieten, um sowohl Anfängern als auch erfahrenen Läufern gerecht zu werden.
- Ermöglichen Sie Benutzern die Anpassung: Läufer sollten wählen können, welche Leistungsmetriken sie sehen (z. B. Herzfrequenz, Tempo, Distanz), um das Feedback an ihre persönlichen Trainingsziele anzupassen.
- Sorgen Sie für anhaltendes Engagement durch subtile Neuheit: Um die Benutzer langfristig bei Laune zu halten, sollte die Benutzeroberfläche dynamische, aber subtile Designelemente integrieren, die fesselnd sind, ohne abzulenken oder zu überfordern.
Heterogeneous Effect of GenAI on Boundary Resources in Digital Platforms platform partnerships, generative artificial intelligence, complementors, boundary objects
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, wie sich die weit verbreitete Einführung von Generativer KI (GenAI)-Tools auf die externen Entwicklerbeiträge zu digitalen Plattformen auswirkt. Durch die Analyse der Open-Source-Aktivitäten von vier großen E-Commerce-Plattformen auf GitHub misst die Forschung Veränderungen in der Entwickleraktivität, der Vielfalt der Mitwirkenden und dem Gleichgewicht zwischen interner und externer Entwicklung nach der Einführung von Tools wie ChatGPT.
Problem:
Digitale Plattformen sind auf externe Entwickler oder „Komplementäre“ angewiesen, um Wert zu schaffen und Innovationen hervorzubringen. Der rasante Aufstieg von GenAI steigert die Produktivität von Entwicklern erheblich, insbesondere bei denen mit weniger Erfahrung, aber es ist unklar, wie sich dieser technologische Wandel auf das Volumen und die Art externer Beiträge auswirkt. Diese Forschung befasst sich mit der Forschungslücke im Verständnis der Auswirkungen von GenAI auf Plattform-Ökosysteme und wie sich Plattformbesitzer anpassen sollten.
Ergebnisse:
- Es gab eine signifikante Verschiebung hin zur externen Wertschöpfung, wobei das Verhältnis von Beiträgen externer Entwickler im Verhältnis zur internen Entwicklung nach der Einführung von GenAI zunahm.
- GenAI erhöhte die Vielfalt der Beitragenden, was zu einer positiven Verschiebung der Beiträge der aktivsten (Top 1 %) und moderat aktiven (nächsten 9 %) Entwickler auf den meisten Plattformen führte.
- Das Gesamtvolumen externer Beiträge zeigte einen komplexen, heterogenen Effekt, mit anfänglichen Zunahmen, gefolgt von einem Rückgang nach der weit verbreiteten Einführung von ChatGPT.
Mehr
Kilgus, Tim; Schewina, Kai; Stieglitz, Stefan; Fürstenau, Daniel
Overcoming Algorithm Aversion with Transparency: Are Transparent Predictions Changing User Behavior? Algorithm Aversion, Adjustability, Transparency, Interpretable Machine Learning, Replication Study
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, warum Menschen zögern, Algorithmen zu verwenden, ein Phänomen, das als „Algorithmus-Aversion“ bekannt ist. Durch ein Online-Experiment mit 280 Teilnehmern testeten die Forscher, ob die Kontrolle der Nutzer zur Anpassung der Vorhersagen eines Algorithmus oder die Transparenz des Entscheidungsprozesses des Algorithmus das Nutzervertrauen und die Akzeptanz erhöhen könnten. Die Studie zielte darauf ab, die separaten und kombinierten Auswirkungen von Anpassbarkeit und Transparenz auf das Nutzerverhalten zu verstehen.
Problem:
Obwohl maschinelles Lernen (ML) Modelle Menschen oft übertreffen, werden sie häufig nicht ausgelastet, weil die Menschen ihnen misstrauen. Diese „Algorithmus-Aversion“ ist ein erhebliches Hindernis für die Einführung wertvoller KI-Werkzeuge in Wirtschaft und anderen Bereichen. Während frühere Forschung gezeigt hat, dass die Anpassung von KI-Ergebnissen durch Benutzer hilft, Vertrauen aufzubauen, war unklar, ob die Transparenz der Logik der KI eine ebenso oder noch effektivere Strategie wäre.
Ergebnisse:
- Nutzern die Kontrolle zu geben, die Vorhersagen eines Algorithmus anzupassen, ist ein äußerst effektiver Weg, ihre Zurückhaltung bei dessen Nutzung zu verringern.
- Nutzer, die die Ausgabe eines Algorithmus ändern konnten, verließen sich mit deutlich höherer Wahrscheinlichkeit darauf, was auch zu einer besseren Gesamtleistung bei der Vorhersageaufgabe führte.
- Im Gegensatz dazu hatte die einfache Transparenz des Entscheidungsprozesses des Algorithmus („Öffnen der Black Box“) überraschend geringe und statistisch nicht signifikante Auswirkungen auf die Nutzerakzeptanz.
- Die Studie kommt zu dem Schluss, dass die Vermittlung eines spürbaren Gefühls der Kontrolle entscheidender ist, um die Algorithmus-Aversion zu überwinden, als nur zu erklären, wie das Modell funktioniert.
Bridging Mind and Matter: A Taxonomy of Embodied Generative AI Generative Artificial Intelligence, Embodied AI, Autonomous Agents, Human-GenAI Collaboration
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie entwickelt ein umfassendes Klassifikationssystem oder eine Taxonomie für Embodied Generative KI – intelligente Systeme, die in physischen Körpern wie Robotern agieren. Basierend auf einer systematischen Überprüfung der wissenschaftlichen Literatur und einer Analyse von 40 realen Beispielen schafft das Papier einen strukturierten Rahmen zur Kategorisierung und zum Verständnis dieser aufkommenden Technologien. Die resultierende Taxonomie bietet eine Grundlage für zukünftige Forschung und stellt ein praktisches Werkzeug zur Analyse und Optimierung von Anwendungen dar.
Problem:
Da Generative KI (GenAI) von rein digitalen Aufgaben zur Steuerung physischer Systeme übergeht, entwickelt sich in Bereichen wie Robotik und Automatisierung eine neue Klasse von „Embodied GenAI“. Dies ist jedoch ein neues und vielfältiges Feld, und es gab keine standardisierte Methode, die verschiedenen Merkmale dieser Systeme zu klassifizieren oder zu bewerten. Dieser Mangel an einem systematischen Rahmen erschwert es Unternehmen und Forschern, Produkte zu vergleichen, die Entwicklung zu steuern und fundierte Entscheidungen über die Einführung dieser neuen Technologie zu treffen.
Ergebnisse:
- Die Studie erstellte eine detaillierte Taxonomie zur Klassifizierung von Embodied GenAI-Systemen.
- Dieses Framework ist in drei Hauptkategorien unterteilt: Embodiment (die physische Form),
Intelligenz (die kognitiven Fähigkeiten der KI) und System (die Integration beider).
- Es identifiziert 16 Schlüsseldimensionen (z. B. Aussehen, Autonomie, Kollaboration) und 50 spezifische
Charakteristika zur Beschreibung und zum Vergleich verschiedener Systeme.
- Die Analyse von 40 aktuellen Systemen ergab wichtige Trends, wie z. B. dass die Mehrheit (60 %) menschenähnliche
Designs aufweist und ein starker Fokus auf den vollautonomen Betrieb liegt (63 %).
- Die Taxonomie bietet ein praktisches Werkzeug für Unternehmen zur Bewertung bestehender Technologien und eine
Referenz für die Entwicklung neuer Anwendungen in den Bereichen Servicerobotik und industrielle Automatisierung.
Mehr
Laufer, Jan; Banh, Leonardo; Strobel, Gero
Synthesising Catalysts of Digital Innovation: Stimuli, Tensions, and Interrelationships Digital Innovation, Data Objects, Layered Modular Architecture, Product Design, Platform Ecosystems
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie synthetisiert bestehende Forschung, um einen integrierten Rahmen für das Verständnis digitaler Innovationen zu schaffen. Durch eine strukturierte Literaturübersicht identifiziert die Arbeit fünf Schlüssel-"Katalysatoren", die Innovationen entweder beschleunigen oder behindern können, zusammen mit den inhärenten Spannungen und Zielkonflikten jedes einzelnen.
Problem:
Während digitale Innovation entscheidend für Wettbewerbsvorteile ist, fehlt es Managern und Wissenschaftlern oft an einer ganzheitlichen Sicht auf die miteinander verbundenen Faktoren, die sie antreiben. Die Forschung konzentriert sich oft isoliert auf einzelne Phänomene wie Plattform-Ökosysteme oder Produktdesign, was es Unternehmen erschwert, das komplexe Zusammenspiel von Chancen und Risiken strategisch zu managen.
Ergebnisse:
- Das Papier identifiziert fünf Hauptkatalysatoren für digitale Innovation: Datenobjekte, geschichtete modulare Architektur, Produktdesign, IT- und Organisationsausrichtung sowie Plattformökosysteme.
- Jeder Katalysator führt sowohl zu positiven Anreizen (z. B. Datenmonetarisierung, schnelle Produktaktualisierungen, Netzwerkeffekte) als auch zu negativen Spannungen (z. B. Datenschutzrisiken, Benutzerverwirrung, Marktabschottung).
- Die Datenmonetarisierung schafft neue Einnahmen, wirft aber Datenschutzbedenken auf, während flexible modulare Architekturen zu Fragmentierung führen können, wenn sie nicht richtig gesteuert werden.
- Innovative Produktdesigns können den Wert neu definieren, bergen aber das Risiko, Benutzer zu verwirren, wenn sie zu komplex sind oder bestehendes Verhalten ignorieren.
- Das erfolgreiche Management digitaler Innovation erfordert ein Gleichgewicht zwischen diesen Kompromissen, die Ausrichtung von Technologie auf die Organisationskultur und das Verständnis der Dynamik des breiteren Ökosystems.
Mehr
Beer, Julian; Guggenberger, Tobias Moritz; Otto, Boris
Understanding Affordances in Health Apps for Cardivascular Care through Topic Modeling of User Reviews topic modeling, heart failure, affordance theory, health apps
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie analysierte über 37.000 Nutzerbewertungen von 22 mobilen Gesundheits-Apps für die kardiovaskuläre Versorgung. Mithilfe einer Datenanalysetechnik namens Topic Modeling identifizierte die Forschung Schlüsselmuster dessen, was Benutzer schätzen und diskutieren, und deckte die wichtigsten Funktionen und Fähigkeiten für die Behandlung von Herzerkrankungen auf.
Problem:
Herz-Kreislauf-Erkrankungen sind eine Haupttodesursache, und mobile Apps bieten Patienten eine vielversprechende Möglichkeit, ihre Gesundheit zu überwachen. Damit diese Apps jedoch wirksam sind, müssen sie die Bedürfnisse der Patienten erfüllen. Diese Studie schließt die Lücke zwischen technologischer Verfügbarkeit und Nutzerakzeptanz, indem sie Feedback aus der Praxis analysiert, um zu verstehen, was diese Apps für Patienten wirklich nützlich macht.
Ergebnisse:
- Datenmanagement und -teilung: Benutzer legen Wert auf die Möglichkeit, ihre Gesundheitsdaten einfach zu verwalten, zu dokumentieren und zu teilen (z. B. über PDF-Berichte) mit Klinikern.
- Überwachung und Verfolgung: Kernfunktionalität für die Echtzeitmessung und Langzeitüberwachung von Vitalwerten (wie Herzfrequenz) ist für Benutzer unerlässlich, um ihren Zustand zu verfolgen.
- Analyse und Auswertung: Benutzer wünschen sich Funktionen, die ihnen helfen, ihre eigenen Gesundheitsdaten zu analysieren und auszuwerten, indem sie aktuelle Messwerte mit historischen Daten vergleichen.
- Benutzerfreundlichkeit von Sensoren: Die einfache Bedienung, Genauigkeit und Zuverlässigkeit von sensorbasierten Funktionen (wie die Verwendung der Handykamera für Pulsmessungen) sind entscheidend für das Vertrauen und die Beteiligung der Benutzer.
- Systemleistung und Interaktion: Reibungslose Leistung, benutzerfreundliches Design und interaktive Funktionen wie Erinnerungen und die gemeinsame Nutzung von Daten mit medizinischen Teams werden hoch geschätzt.
- Monetarisierungsmodelle: Benutzer sind frustriert, wenn wesentliche Funktionen hinter Paywalls gesperrt sind, sind aber bereit, für Abonnements zu bezahlen, die einen klaren, erheblichen Mehrwert bieten.
Mehr
Flok, Aleksandra
Towards an AI-Based Therapeutic Assistant to Enhance Well-Being: Preliminary Results from a Design Science Research Project AI Therapeutics, Well-Being, Conversational Assistant, Design Objectives, Design Science Research
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie stellt ELI vor, einen KI-basierten therapeutischen Assistenten, der zur Verbesserung des Wohlbefindens durch die Bereitstellung zugänglicher, evidenzbasierter psychologischer Unterstützung entwickelt wurde. Unter Anwendung eines Design Science Research (DSR)-Ansatzes führten die Forscher eine Literaturrecherche und Expertenworkshops durch, um sechs Kern-Designziele festzulegen. Diese Ziele wurden anschließend in einem simulierten Prototyp implementiert und evaluiert, was die Grundlage für zukünftige Entwicklungen bildet.
Problem:
Viele Menschen haben keinen rechtzeitigen Zugang zu professioneller psychologischer Unterstützung, was zu einer erhöhten Nachfrage nach digitalen psychischen Gesundheitswerkzeugen führt. Bestehende KI-gestützte Lösungen sind jedoch oft fragmentiert, entbehren einer fundierten wissenschaftlichen Grundlage oder konzentrieren sich eng auf bestimmte Erkrankungen, wodurch ein Bedarf an einem systematisch entwickelten, zuverlässigen und ganzheitlichen Therapieassistenten entsteht.
Ergebnisse:
- Die Forschung identifizierte sechs zentrale Designziele für einen KI-Therapieassistenten mit Fokus auf Empathie, dynamische Anpassungsfähigkeit, ethische Standards, technologische Integration, evidenzbasierte Algorithmen und verlässliche Unterstützung.
- Ein simulierter Prototyp, ELI, wurde entwickelt, um diese Ziele zu verwirklichen und verfügt über eine benutzerfreundliche, sprachbasierte Schnittstelle, um zugängliche, niederschwellige Unterstützung zu bieten.
- Die Bewertung durch 18 Psychologieexperten ergab, dass ELI eine vielversprechende Ergänzung zur traditionellen Therapie darstellt. Insbesondere wurden seine Zugänglichkeit, die wahrgenommene Empathie und seine Nützlichkeit bei leichteren psychologischen Problemen gelobt.
- Es wurden Schlüsselbereiche für Verbesserungen identifiziert, darunter die Notwendigkeit größerer Transparenz bei den Datenschutzbestimmungen, robustere Fähigkeiten zur Krisenintervention und umfassendere therapeutische Ansätze.
- Während Smartphones als ideale Plattform für die Zugänglichkeit angesehen wurden, sahen Experten auch Potenzial in immersiven Technologien wie VR und AR, um das Nutzerengagement in Zukunft zu verbessern.
Mehr
Illgen, Katharina-Maria; Kochon, Enrico; Krutikov, Sergey; Thomas, Oliver
The Silent Exclusion: Unpacking “AI Ostracism” and the Power of Explanations in Reducing Antisocial Behavior (Gen)AI, social exclusion, counterfactual explanation, well-being, antisocial behavior
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht das psychologische Phänomen des „KI-Ostracismus“, bei dem sich Individuen von KI-Systemen ignoriert oder ausgeschlossen fühlen. Die Forschung schlägt ein konzeptionelles Modell und eine Reihe von Online-Experimenten vor, um zu untersuchen, wie die Bereitstellung verschiedener Arten von Erklärungen für KI-Entscheidungen nachfolgendes antisoziales Verhalten reduzieren kann. Die Kernidee ist, dass klare, umsetzbare Erklärungen das Gefühl der Kontrolle eines Menschen nach einer Ablehnung durch einen Algorithmus wiederherstellen können.
Problem:
Da KI zunehmend kritische Entscheidungen in Bereichen wie Einstellung und Kreditwürdigkeitsprüfung trifft, besteht ein wachsendes Risiko negativer psychologischer Auswirkungen auf die Personen, die sie ablehnt. Während sich die Forschung auf Fairness und Verzerrungen bei KI konzentriert hat, ist wenig über die emotionalen und verhaltensbezogenen Folgen des Ausschlusses durch ein unpersönliches System bekannt. Dieser Ausschluss kann das Gefühl der Kontrolle einer Person verringern und zu aggressiven oder antisozialen Reaktionen führen, was Risiken für Einzelpersonen und Organisationen birgt.
Ergebnisse:
- Ablehnung durch ein KI-System (KI-Ostracismus) kann zu antisozialem Verhalten führen, potenziell stärker als Ablehnung durch einen Menschen, da sie das wahrgenommene Kontrollgefühl einer Person verringert.
- Der Grund für die Ablehnung durch eine KI ist entscheidend; eine Ausgrenzung aufgrund sensibler persönlicher Merkmale (wie Alter oder Geschlecht) wird wahrscheinlich eine stärkere negative Reaktion hervorrufen als eine Ausgrenzung aufgrund von Qualifikationen.
- Die Bereitstellung von Erklärungen für die Entscheidung einer KI kann diese negativen Auswirkungen abmildern.
- Insbesondere „kontrafaktische“ Erklärungen, die einem Nutzer zeigen, was er hätte anders machen können, um ein besseres Ergebnis zu erzielen (z. B. „Wenn Ihre Testergebnisse höher gewesen wären, wären Sie akzeptiert worden“), können am wirksamsten sein, um die Kontrolle wiederherzustellen und antisoziales Verhalten zu reduzieren.
Mehr
Hall, Kristina
Trapped by Success – A Path Dependence Perspective on the Digital Transformation of Mittelstand Enterprises Digital Transformation, Path Dependency, Mittelstand Enterprises
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, warum erfolgreiche deutsche mittelständische Unternehmen (Mittelstand-Unternehmen)
eine inkrementelle statt einer radikalen digitalen Transformation verfolgen. Mithilfe eines Multi-Case-Study-Ansatzes
wendet die Forschung die Pfadabhängigkeitstheorie an, um zu analysieren, wie historischer Erfolg und etablierte
Geschäftsmodelle sich selbst verstärkende Verhaltensweisen schaffen. Die Analyse deckt spezifische "Lock-in"-Mechanismen auf,
die die Fähigkeit der Unternehmen begrenzen, transformative digitale Chancen zu nutzen.
Problem:
Viele erfolgreiche mittelständische Unternehmen sind notorisch vorsichtig bei der digitalen Transformation und bevorzugen oft kleine Verbesserungen gegenüber kühnen, innovativen Veränderungen. Während Faktoren wie Ressourcenknappheit bekannt sind, ist nicht vollständig verstanden, warum diese Unternehmen auf einem langsamen Kurs bleiben, selbst wenn sie mit erheblichen digitalen Chancen konfrontiert sind. Diese Forschung untersucht, warum diese Unternehmen 'durch ihren Erfolg gefangen' werden, was zu strategischer Trägheit führt, die sie daran hindert, ihre Geschäftsmodelle für das digitale Zeitalter grundlegend anzupassen.
Ergebnisse:
- Unternehmen lehnen radikalen digitalen Wandel nicht absichtlich ab; vielmehr erleben sie einen „funktionalen Lock-in“, bei dem ihr erfolgreiches, etabliertes Geschäftsmodell eine Präferenz für inkrementelle Verbesserungen verstärkt.
- Dieser Lock-in wird durch normative Faktoren (eingefahrene Unternehmenskultur), kognitive Verzerrungen (tief verwurzelte Annahmen über das Geschäft) und Ressourcenzuweisung (Priorisierung bestehender Geschäftsbereiche gegenüber neuen Unternehmungen) angetrieben.
- Digitale Initiativen werden hauptsächlich nur dann übernommen, wenn sie das aktuelle Geschäftsmodell optimieren oder verbessern, wie z. B. durch die Steigerung der Prozesseffizienz oder die Ergänzung bestehender Produkte um digitale Funktionen.
- Potenziell transformative digitale Optionen, wie z. B. neue plattformbasierte Dienste, werden oft zurückgestellt oder abgelehnt, da sie nicht mit den Kernfunktionen und etablierten Praktiken des Unternehmens übereinstimmen.
- Ohne erheblichen externen Druck oder eine Krise werden Unternehmen wahrscheinlich nicht von diesem inkrementellen Weg abweichen, da ihr aktueller Erfolg den wahrgenommenen Bedarf an radikaler Transformation verringert.
Mehr
Lischke, Linus
Workarounds—A Domain-Specific Modeling Language Business Process Management, Workaround, Domain-Specific Modeling Language, Design Science Research
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie entwirft eine visuelle Modellierungssprache namens Workaround Modeling Notation (WAMN), um
Organisationen dabei zu unterstützen, von Mitarbeitern erstellte Abweichungen von Standardverfahren systematisch zu verwalten.
WAMN bietet eine strukturierte Möglichkeit, die Ursachen, die Durchführung und die
Folgen von Workarounds zu identifizieren, zu visualisieren und zu analysieren. Dies ermöglicht es Managern, diese informellen Praktiken nicht nur als
Problem:
Mitarbeiter entwickeln häufig „Workarounds“, um Hindernisse bei ihren täglichen Aufgaben zu überwinden, aber diese informellen Lösungen bleiben dem Management oft verborgen. Dieser Mangel an Transparenz erschwert es Organisationen, ihre komplexen Auswirkungen zu bewerten, die von verbesserter Effizienz bis hin zu neuen Compliance-Risiken und finanziellen Verlusten reichen können. Folglich tun sich Unternehmen schwer damit, konsistente, fundierte Entscheidungen darüber zu treffen, wie sie mit diesen Abweichungen umgehen sollen.
Ergebnisse:
- Entwickelte ein neues visuelles Werkzeug, WAMN, zur systematischen Abbildung des gesamten Lebenszyklus eines Workarounds,
von seiner Ursachenfindung bis hin zu seinen positiven und negativen Auswirkungen.
- Ermöglicht Managern die Visualisierung komplexer Ketten von miteinander verbundenen Workarounds und deren
kaskadierende Effekte über verschiedene Abteilungen, Einzelpersonen und IT-Systeme hinweg.
- Erleichtert fundiertere Entscheidungen, indem die mit jedem Workaround verbundenen Kompromisse (z. B. erhöhte Flexibilität vs.
reduzierte Datenqualität) klar aufgezeigt werden.
- Bietet einen Rahmen zur Umwandlung wertvoller, von Mitarbeitern entwickelter Workarounds in offizielle, verbesserte
Geschäftsprozesse und fördert so Innovation von Grund auf.
Mehr
Krabbe, Carolin; Assbrock, Agnes; Reineke, Malte; Beverungen, Daniel
The Role of Digital Technologies in Transforming Information Warfare Information Warfare, Digital Transformation, Hermeneutic Literature Review, Sociotechnical Framework
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie analysiert die Entwicklung der Information Warfare (IW) im digitalen Zeitalter. Anhand einer kritischen Analyse bestehender Definitionen und einer hermeneutischen Literaturrecherche wendet das Papier einen Rahmen für die digitale Transformation an, um IW als soziotechnischen Prozess zu konzeptionieren. Ziel ist es, den mehrdeutigen Begriff der IW zu klären und zu verstehen, wie neue Technologien seine Methoden und gesellschaftlichen Auswirkungen verändern.
Problem:
Informationskriegsführung ist zu einer mächtigen und allgegenwärtigen Bedrohung geworden, doch der Begriff selbst entbehrt einer klaren, konsistenten Definition. Diese konzeptionelle Mehrdeutigkeit behindert die Fähigkeit von Organisationen und Regierungen, kohärente Strategien und wirksame Politiken zur Bekämpfung moderner Bedrohungen wie weit verbreiteter Desinformation und ausgeklügelter Cyberangriffe zu entwickeln.
Ergebnisse:
- Bestehende Definitionen von Informationskriegführung (IW) sind häufig mehrdeutig und verwechseln oft die Angriffsmethoden mit deren Ergebnissen, was zu einem Mangel an konzeptioneller Klarheit führt.
- Das Konzept der IW hat sich erheblich weiterentwickelt und von einem traditionellen militärischen Fokus zu einer breiteren gesellschaftlichen Angelegenheit verschoben, die digitale Technologien wie KI und soziale Medien als primäre Wegbereiter hervorhebt.
- Moderne IW umfasst eine Reihe von Angriffen, darunter Cyber-Spionage und psychologische Operationen, die zu erheblichen negativen gesellschaftlichen Auswirkungen wie politischer Polarisierung, geringerem öffentlichem Vertrauen und Delegitimierung von Regierungen führen können.
- Der Erfolg von IW-Kampagnen wird stark von Faktoren wie der digitalen Kompetenz der Öffentlichkeit und der Art sozialer Beziehungen beeinflusst, die die Verbreitung von Desinformation entweder verstärken oder abschwächen können.
- Ein umfassender Rahmen für das Verständnis moderner IW muss das Zusammenspiel zwischen digitalen Technologien, sozialen Veränderungen und den verschiedenen organisatorischen und individuellen Faktoren berücksichtigen, die diese Konflikte prägen.
Mehr
Grashoff, Lille; Risius, Marten
Systematizing Different Types of Interfaces to Interact with Data Trusts Data Trust, user interface, API, interoperability, data sharing
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie überprüft systematisch die wissenschaftliche Literatur, um die wesentlichen Schnittstellen zu kategorisieren, die für den Betrieb von Data Trusts, Organisationen, die die Datenfreigabe im Auftrag anderer verwalten, erforderlich sind. Sie untersucht sowohl Benutzeroberflächen für die menschliche Interaktion als auch technische Schnittstellen (APIs) für die System-zu-System-Kommunikation. Die Forschung bietet einen grundlegenden Überblick über die benötigten Schnittstellentypen und identifiziert Lücken im aktuellen Wissen, um die zukünftige Entwicklung zu leiten.
Problem:
Datentreuhänder werden als Schlüssel zur vertrauenswürdigen Datenfreigabe vorgeschlagen, aber ihre praktische Umsetzung wird durch mangelnde Klarheit darüber behindert, wie Benutzer und Systeme mit ihnen interagieren sollen. Ohne ein standardisiertes Verständnis der notwendigen menschlichen und technischen Schnittstellen ist es schwierig, robuste, interoperable und benutzerfreundliche Datentreuhänder aufzubauen. Diese Lücke verhindert die weit verbreitete Einführung eines sicheren und zuverlässigen Datenfreigabe-Ökosystems.
Ergebnisse:
- Datentreuhandfonds erfordern zwei Hauptarten von Schnittstellen: Mensch-System-Schnittstellen für die Benutzerinteraktion
(z. B. Dashboards) und System-System-Schnittstellen für die automatisierte Maschinenkommunikation (z. B.
APIs).
- Zu den wichtigsten menschlichen Schnittstellen gehören webbasierte Portale zur Verwaltung von Einwilligungs- und Datenzugriffsrichtlinien
sowie Visualisierungs-Dashboards zur Überwachung der Datennutzung.
- Technische Schnittstellen, insbesondere APIs, sind entscheidend für den sicheren und standardisierten Datenaustausch
zwischen den IT-Systemen verschiedener Organisationen.
- Die Forschung deckt eine signifikante Lücke in der bestehenden Literatur auf, in der Schnittstellen oft erwähnt,
aber detaillierte Spezifikationen oder Implementierungsrichtlinien für Datentreuhandfonds fehlen.
- Um effektiv zu sein, müssen Datentreuhandfonds so konzipiert sein, dass sie verschiedene Datenstrukturen (strukturiert,
semi-strukturiert, unstrukturiert) verarbeiten und nahtlos mit verschiedenen Datenspeichersystemen verbunden werden können.
Mehr
Acev, David; Rieder, Florian; Riehle, Dennis M.; Wimmer, Maria A.
Understanding the Usage of Hierarchical Features in Taxonomies in IS Research: Towards a Meta-Taxonomy Hierarchical Taxonomies, Knowledge Organization, Meta-Taxonomy, Common Language, Semantic Ambiguity
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie analysiert den inkonsistenten Gebrauch hierarchischer Strukturen innerhalb von Taxonomien in der Forschung zu Informationssystemen (IS). Durch eine systematische Literaturübersicht entwickeln die Autoren eine "Metataxonomie" – ein Klassifikationssystem für andere Taxonomien –, um eine gemeinsame Sprache für die Beschreibung und das Verständnis zu schaffen, wie hierarchische Merkmale definiert, implementiert und visualisiert werden.
Problem:
Der Begriff "hierarchische Taxonomie" wird in der IS-Forschung inkonsistent angewendet, was zu konzeptioneller Mehrdeutigkeit führt. Dies erschwert es Forschern, Studien zu vergleichen, die methodische Strenge von Klassifikationssystemen zu beurteilen oder die geeignete Struktur für ihre eigene Arbeit auszuwählen, was letztendlich eine effektive Wissensorganisation behindert.
Ergebnisse:
- Die Forschung entwickelt eine vorläufige Meta-Taxonomie zur Klassifizierung von Taxonomien, die hierarchische Merkmale verwenden.
- Dieser Rahmen kategorisiert Taxonomien anhand von vier Schlüsseldimensionen: der Explizitheit der hierarchischen Bezeichnung, der Art der hierarchischen Beziehung (z. B. Eltern-Kind), dem methodischen Ursprung und dem Visualisierungsansatz (z. B. Baumdiagramm).
- Die Studie hebt einen erheblichen Mangel an methodischer Anleitung zur Erstellung hierarchischer Taxonomien hervor, was zu den beobachteten Inkonsistenzen beiträgt und eine Grundlage für zukünftige Standardisierung bietet.
Mehr
Althaus, Maike; Kundisch, Dennis
Understanding How Freelancers in the Design Domain Collaborate with Generative Artificial Intelligence Generative Artificial Intelligence, Online Freelancing, Human-AI Collaboration
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, wie Generative KI (GenAI) die kreativen Arbeitsabläufe von freiberuflichen Designer*innen verändert. Durch qualitative Interviews mit 10 freiberuflichen Designer*innen führten die Forscher*innen eine thematische Analyse durch, um die Chancen und Herausforderungen der Zusammenarbeit mit Text-zu-Bild (TTIG) KI-Systemen zu verstehen.
Problem:
Generative KI verändert kreative Branchen rasant, aber es ist wenig über ihre spezifischen Auswirkungen auf freiberufliche Designer bekannt. Diese Fachleute sind aufgrund ihrer direkten Marktexposition und fehlender institutioneller Unterstützung einzigartig anfällig für technologische Umwälzungen, was die dringende Notwendigkeit schafft, zu verstehen, wie sich ihre Arbeitsprozesse und Berufsaussichten entwickeln.
Ergebnisse:
- Kreativität vs. Standardisierung: KI kann ein mächtiges Werkzeug für Inspiration und die Erkundung neuer Stile sein, birgt aber auch die Gefahr, zu einer homogenisierten oder unoriginellen kreativen Ausgabe zu führen.
- Effizienz vs. Übergenauigkeit: Während KI Aufgaben drastisch beschleunigen kann, verleitet sie Designer auch zu einem Kreislauf endloser kleiner Anpassungen und Perfektionismus, was Effizienzgewinne zunichtemachen kann.
- KI als Sparringspartner vs. Kontrollverlust: Designer können mit KI als kreativem Kollaborateur interagieren, um Ideen zu verfeinern, aber die Unvorhersehbarkeit und die „Black Box“-Natur der Technologie können auch zu einem frustrierenden Mangel an direkter Kontrolle führen.
- Job-Transition vs. Jobverlust: KI verändert die Rolle des Designers hin zu Prompt-Engineering und kreativer Leitung, birgt aber auch eine direkte Bedrohung des Jobverlusts, insbesondere für Junior-Freiberufler, deren Einstiegstätigkeiten am anfälligsten für Automatisierung sind.
Mehr
Helms, Fabian; Gussek, Lisa; Wiesche, Manuel
Citizen developer training: a cross-platform analysis of training courses Citizen Developer, Low-Code, Software Development, Training
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie analysiert die offiziellen Schulungsmaterialien von drei führenden Low-Code/No-Code (LCNC)-Plattformen: Appian, Mendix und OutSystems. Mithilfe einer KI-gestützten Methode zur Zusammenfassung von Inhalten und zur Extraktion von Schlüsselwörtern bewertet die Forschung die Machbarkeit der Erstellung eines standardisierten, anbieterunabhängigen Schulungsrahmens. Ziel ist der Aufbau einer umfassenden Datenbank, die die Entwicklung einer universellen Schulung für Citizen Developer unterstützen kann.
Problem:
Der zunehmende Einsatz von Low-Code-Plattformen durch Nicht-IT-Mitarbeiter (Citizen Developer) erfordert neue Schulungskonzepte, um die Anwendungsqualität und -sicherheit zu gewährleisten. Die aktuelle Schulung ist jedoch typischerweise an spezifische Anbieter gebunden, was ein Risiko des „Vendor Lock-ins“ birgt und es für Unternehmen schwierig macht, übertragbare Fähigkeiten in ihrer Belegschaft aufzubauen.
Ergebnisse:
- Die Kernthemen, die in den Schulungsmaterialien führender LCNC-Anbieter behandelt werden, sind weitgehend vergleichbar und weisen erhebliche Überschneidungen auf.
- Diese Ähnlichkeit unterstützt die Machbarkeit der Erstellung eines standardisierten, anbieterunabhängigen Schulungsrahmens für Citizen Developer.
- Ein standardisierter Schulungsansatz kann Unternehmen helfen, Schulungskosten zu senken und die Risiken zu mindern, die mit der Abhängigkeit von der Plattform eines einzelnen Anbieters verbunden sind.
- Die Studie zeigte erfolgreich eine teilautomatisierte, KI-gesteuerte Methode zur Analyse und zum Vergleich von Trainingsinhalten über verschiedene Plattformen hinweg.
Mehr
Fleschutz-Balarezo, Timo; Malzahn, Birte; Szadowiak, Andrzej
Psychological Factors in Mobile Applications: Applying the SHIFT Framework to Encourage Sustainable Consumer Behavior. sustainability, human behavior, mobile applications, SHIFT
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, wie mobile Anwendungen psychologische Prinzipien nutzen können, um nachhaltiges Konsumverhalten effektiv zu fördern. Forscher analysierten zunächst 31 Nachhaltigkeits-Apps, um die am häufigsten verwendeten psychologischen Faktoren auf Basis des SHIFT-Frameworks zu identifizieren. Anschließend wurde ein Online-Experiment durchgeführt, um die Wirksamkeit der beiden am weitesten verbreiteten Faktoren bei der Förderung umweltfreundlicher Handlungen und Einstellungen empirisch zu testen.
Problem:
Während individuelle Lebensstile maßgeblich zum Klimawandel beitragen, gelingt es vielen Menschen nicht, ihre nachhaltigen Absichten in die Tat umzusetzen, ein Problem, das als „Einstellungs-Verhaltens-Lücke“ bekannt ist. Nachhaltigkeits-Apps sollen dies angehen, aber sie leiden oft unter hohen Nutzerabbruchraten, was darauf hindeutet, dass sie möglicherweise keine langfristige Verhaltensänderung effektiv motivieren.
Ergebnisse:
- Die am häufigsten verwendeten psychologischen Strategien in Nachhaltigkeits-Apps sind, nachhaltige
Aktionen einfach zu gestalten ('Gewohnheitsbildung') und klare Informationen und Wissen zu vermitteln ('Gefühle und
Kognition').
- Experimentelle Ergebnisse bestätigten, dass beide Strategien äußerst wirksam sind, um das umweltbewusste Verhalten, das Verantwortungsgefühl und die Einstellung der Nutzer zur Nachhaltigkeit positiv zu beeinflussen.
- Die Kombination beider Strategien ('etwas einfach machen' plus 'Informationen bereitstellen') ergab keine signifikant stärkere Wirkung als die Anwendung nur einer der Strategien allein.
- Diese psychologischen Auslöser in mobilen Apps können Nutzer erfolgreich dazu motivieren, nachhaltigere Gewohnheiten anzunehmen, und helfen so, die Lücke zwischen der Umweltintention und dem Handeln zu schließen.
Mehr
Bruckner, Moritz T.; Veit, Daniel J.
Extracting Explanatory Rationales of Activity Relationships using LLMs - A Comparative Analysis Activity Relationships Classification, Large Language Models, Explanatory Rationales, Process Context
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht die Verwendung von Large Language Models (LLMs) zur automatischen Extraktion und Klassifizierung von "erklärenden Begründungen" – den zugrunde liegenden Gründen für spezifische Aktivitätssequenzen in einem Geschäftsprozess – aus Textdokumenten. Die Forscher verglichen verschiedene LLMs und vier verschiedene Prompting-Techniken, um deren Wirksamkeit anhand eines realen Anwendungsfalls eines Universitäts-Abschlussarbeitsprozesses zu bewerten.
Problem:
Zu verstehen, warum Geschäftsprozessschritte in einer bestimmten Reihenfolge erfolgen (z. B. aufgrund von Gesetzen, internen Richtlinien oder Best Practices), ist entscheidend für die Prozessverbesserung und die Einhaltung von Vorschriften. Diese Information wird jedoch typischerweise manuell aus Dokumenten und Interviews extrahiert, was eine langsame, teure und arbeitsintensive Aufgabe ist. Diese Forschung befasst sich mit dem Bedarf an einer automatisierten Methode zur Identifizierung und Kategorisierung dieser Aktivitätsbeziehungen.
Ergebnisse:
- Große Sprachmodelle (LLMs) können die Extraktion und Klassifizierung von Geschäftsprozessregeln aus Texten erfolgreich automatisieren.
- Die Angabe weniger Beispiele in der Eingabeaufforderung ("Few-Shot Learning") verbessert die Genauigkeit von LLMs im Vergleich zu einfachen Anweisungen dramatisch.
- Kleinere, kostengünstigere Modelle wie GPT-4o mini können bei Verwendung geeigneter Prompts zu Ergebnissen führen, die mit größeren, teureren Modellen vergleichbar oder sogar besser sind.
- Diese Automatisierung macht fortgeschrittene Prozessanalysen für Organisationen mit begrenzten Ressourcen zugänglicher und hilft bei der Verbesserung der Compliance-Prüfung und der Neugestaltung von Geschäftsprozessen.
Building Digital Transformation Competence: Insights from a Media and Technology Company Competencies, Competence Building, Organizational Learning, Digital Transformation, Digital Innovation
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, wie Organisationen effektiv die für die digitale Transformation notwendigen Fähigkeiten und Kompetenzen aufbauen können. Durch eine qualitative Fallstudie eines großen Medien- und Technologieunternehmens identifiziert die Forschung einen klaren, sequenziellen Prozess zur Entwicklung digitaler Kompetenz und bietet praktische Einblicke für Unternehmensleiter.
Problem:
Viele Unternehmen kämpfen mit der digitalen Transformation, weil bestehende Leitlinien zum Aufbau der richtigen
Mitarbeiterfähigkeiten oft zu abstrakt sind und konkrete Beispiele vermissen lassen. Diese Forschung schließt diese Lücke,
indem sie eine praktische, reale Roadmap dafür liefert, wie ein Unternehmen seine digitalen Kompetenzen
im Laufe der Zeit erfolgreich entwickelt hat.
Ergebnisse:
- Der Aufbau digitaler Kompetenz ist eine dreistufige Reise: 1) Erweitern Sie Kern-IT-Kompetenzen, 2) Schaffen Sie eine agile und unterstützende Organisationsstruktur (Meta-Kompetenz) und 3) Fördern Sie die Fähigkeit, neue Produkte und Geschäftsmodelle zu innovieren (Transformationskompetenz).
- Verschiedene Arten von Kompetenzen erfordern unterschiedliche Entwicklungswerkzeuge. Kern-IT-Kompetenzen können durch traditionelle Schulungen aufgebaut werden, aber die Schaffung einer agilen Kultur erfordert organisatorische Veränderungen wie neue Führungsrollen, schnellere Entscheidungsfindung und mehr Mitarbeiterbeteiligung.
- Die Förderung echter Innovationsfähigkeiten erfordert, dass man über starre Präsenzschulungen hinausgeht. Unternehmen sollten Methoden anwenden, die Experimente, selbstgesteuertes Lernen und praktische Anwendung fördern, wie z. B. Produktentwicklungsveranstaltungen und Hackathons.
- Ein unterstützendes, flexibles organisatorisches Umfeld ist entscheidend. Es dient als Grundlage, die die Entwicklung sowohl technischer Fähigkeiten als auch breiterer innovativer Kapazitäten verbessert.
Mehr
Bohrer, Mathias; Hess, Thomas
Dynamic Equilibrium Strategies in Two-Sided Markets Two-sided markets, Predatory Pricing, Bayesian multi-stage games, Learning in games
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie analysiert, wann predatory pricing eine rationale Strategie für wettbewerbsfähige digitale Plattformen ist. Mithilfe eines mehrstufigen spieltheoretischen Modells, das Unsicherheit und tiefes Reinforcement Learning integriert, simulieren die Forscher den Plattformwettbewerb, um die Bedingungen zu identifizieren, die zur Marktmonopolisierung führen.
Problem:
In der digitalen Wirtschaft konsolidieren sich Märkte oft zu Monopolen, selbst wenn konkurrierende Plattformen ausgeglichen erscheinen. Traditionelle Wirtschaftsmodelle tun sich schwer, dieses Phänomen zu erklären, da sie oft davon ausgehen, dass Wettbewerber vollständige Informationen über die Kosten des jeweils anderen haben, was unrealistisch ist und die Rolle der Unsicherheit bei der strategischen Preisgestaltung außer Acht lässt.
Ergebnisse:
- Unsicherheit über die Kosten eines Wettbewerbers ist ein Haupttreiber der Monopolisierung. Monopole entstanden
in etwa 60 % der simulierten Fälle, selbst wenn die Plattformen ansonsten identisch waren.
- Im Gegensatz dazu bilden sich Monopole nur dann, wenn Wettbewerber vollständige Informationen haben und eine
Plattform einen klaren Kostenvorteil aufweist.
- Asymmetrien, wie z. B. dass eine Plattform geringfügig niedrigere Kosten hat, erhöhen die Wahrscheinlichkeit
erheblich, dass der Markt zu einem Monopol wird.
- Risikoaversion bei Managern hat den gegenteiligen Effekt, macht aggressive räuberische Preisgestaltung
weniger wahrscheinlich und verringert die Chance auf Monopolbildung.
Mehr
Bürgermeister, Janik; Bichler, Martin; Schiffer, Maximilian
Gender Bias in LLMs for Digital Innovation: Disparities and Fairness Concerns Gender Bias, Large Language Models, Fairness, Digital Innovation, Artifi-cial Intelligence
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht geschlechtsspezifische Voreingenommenheit in Large Language Models (LLMs) wie ChatGPT im Kontext digitaler Innovation und Unternehmertum. Forscher nutzten zwei Aufgaben – die Verknüpfung von Berufen mit geschlechtsspezifischen Begriffen und die Simulation von Venture-Capital-Finanzierungsentscheidungen (VC) – um festzustellen, ob und wie KI-Ausgaben gesellschaftliche Geschlechterstereotype widerspiegeln und verstärken.
Problem:
Da Unternehmen KI-Tools für Aufgaben von Brainstorming bis hin zur Entscheidungsfindung schnell einführen, besteht ein erhebliches Risiko, dass diese Technologien schädliche Geschlechtervoreingenommenheiten fortbestehen lassen könnten. Dies kann Frauen in Wirtschaft und Technik benachteiligen, Innovationen behindern und bestehende Ungleichheiten in Berufsfeldern verstärken.
Ergebnisse:
- KI spiegelt gesellschaftliche Vorurteile wider: ChatGPT-4o assoziierte Berufe in der digitalen
Innovation und Technologie häufiger mit Männern, was reale Geschlechterungleichheiten widerspiegelt.
- KI kann ausgrenzendes Verhalten simulieren: In einem simulierten VC-Finanzierungsszenario zeigte das KI-Modell eine „Wir-gegen-die-Mentalität“, bei der männliche VCs männliche Unternehmer und weibliche VCs weibliche Unternehmer bevorzugten, was Stereotypen bei beruflichen Entscheidungen verstärkt.
- Die Minderung von Vorurteilen ist komplex: Einige KI-Modelle versuchen, Vorurteile zu bekämpfen, können aber überkorrigieren, was zu unrealistischen Ergebnissen führt, die das zugrunde liegende Problem eher verschleiern als lösen.
- Implizite Vorurteile sind ein Hauptrisiko: Die Studie ergab, dass Vorurteile selbst dann vorhanden waren, wenn das Geschlecht nur durch Namen impliziert wurde, was zeigt, wie KI Stereotypen auf subtile Weise aufrechterhalten kann, die für Benutzer schwer zu erkennen sind.
- Unternehmen müssen vorsichtig sein: Unternehmen, die KI für Ideenfindung, Einstellung oder Investitionsanalyse einsetzen, müssen sich bewusst sein, dass diese Tools Vorurteile einführen oder verstärken können, was möglicherweise zu unfairen Ergebnissen und übersehenen Talenten führt.
Mehr
Kim-Andres, Sumin; Haag, Steffi
Deep Learning for Balanced Districting and Routing Districting, Balanced VRP, GNN, Decision-aware Learning
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie entwickelt ein künstliches Intelligenzsystem zur Optimierung von Post- und Zeitungszustellrouten in Würzburg, Deutschland. Der Ansatz verwendet ein Graph Neural Network (GNN), eine Art von Deep Learning, um eine Stadt automatisch in effizientere und ausgewogenere Zustellbezirke einzuteilen. Die Leistung des Systems wurde anhand realer Volkszählungs- und geografischer Daten bewertet, um seine potenziellen Vorteile gegenüber bestehenden Methoden zu demonstrieren.
Problem:
Logistikunternehmen haben oft Schwierigkeiten, faire und effiziente Lieferzonen zu erstellen, was zu unausgewogenen Arbeitsbelastungen, höheren Betriebskosten und geringerer Mitarbeiterzufriedenheit führt. Aktuelle KI-Lösungen für dieses „Distrikt- und Routing“-Problem sind oft zu starr und berücksichtigen keine realen Komplexitäten wie variable Kundendichte oder die Notwendigkeit gleichmäßiger Routenlängen für das Lieferpersonal.
Ergebnisse:
- Der vorgeschlagene KI-Prototyp erstellte durchweg kosteneffizientere Lieferbezirke als zwei
Standard-Benchmark-Modelle und reduzierte die gesamte Reisezeit.
- Trotz seiner Effizienz erzeugte das Modell stark unausgeglichene Arbeitslasten; in einem Test war die längste
Lieferroute mehr als viermal so lang wie die kürzeste.
- Die Forschung bestätigt, dass Deep Learning ein erhebliches Potenzial für die Lösung komplexer Gebietsaufteilungs-
Probleme birgt, hebt aber die kritische Notwendigkeit hervor, die Ausgewogenheit der Arbeitslast als primäres Ziel
für praktische, reale Anwendungen zu integrieren.
Mehr
Haustein, Vanessa; Gust, Gunther
The Impact of Digital Platform Acquisition on Firm Value: Does Buying Really Help? Digital Platform Acquisition, Event Study, Exploration vs. Exploitation, Ma-ture vs. Nascent, Chicken-Egg Problem
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, wie der Aktienmarkt auf Ankündigungen von Übernahmen digitaler Plattformen reagiert. Mithilfe einer Event-Study-Methodik an einer globalen Stichprobe von 157 Unternehmen analysiert die Forschung, wie Faktoren wie die strategische Motivation für die Übernahme (Innovation vs. Effizienz) und die Reife der Zielplattform die Investorenwahrnehmung und den Wert des erwerbenden Unternehmens beeinflussen.
Problem:
Der Erwerb digitaler Plattformen ist eine beliebte, aber risikoreiche Wachstumsstrategie, und wenig ist über ihre tatsächliche Effektivität bekannt. Unternehmen und Investoren sehen sich aufgrund hoher Kosten, komplexer Integrationsherausforderungen und Schwierigkeiten bei der Realisierung synergetischer Vorteile mit Unsicherheit hinsichtlich des Werts dieser Geschäfte konfrontiert, was einen Bedarf an klaren Leitlinien für erfolgreiche Akquisitionsstrategien schafft.
Ergebnisse:
- Die Ankündigung der Übernahme einer digitalen Plattform führt im Allgemeinen zu einer negativen Reaktion des Aktienmarktes für das übernehmende Unternehmen, was auf Bedenken der Investoren hindeutet.
- Die negative Marktauswirkung wird deutlich reduziert, wenn die Übernahme „explorativ“ (auf Innovation und langfristiges Wachstum ausgerichtet) und nicht „exploitiv“ (auf unmittelbare Effizienzgewinne ausgerichtet) ist.
- Die Übernahme einer reifen Plattform mit einer etablierten Nutzerbasis und nachgewiesenen Netzwerkeffekten führt zu einer günstigeren und manchmal positiven Marktreaktion im Vergleich zur Übernahme einer aufkeimenden (neuen) Plattform.
Mehr
Huang, Yongli; Schreieck, Maximilian; Kupfer, Alexander
Using Large Language Models for Healthcare Data Interoperability: A Data Mediation Pipeline to Integrate Heterogeneous Patient-Generated Health Data and FHIR FHIR, semantic interoperability, large language models, hospital information system, patient-generated health data
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht den Einsatz von Large Language Models (LLMs) zur automatischen Übersetzung vielfältiger, von Patienten generierter Gesundheitsdaten (PGHD) aus Quellen wie Wearables in das standardisierte FHIR-Format. Die Forscher entwickelten und testeten eine Datenmediationspipeline, die ein LLM mit einem Validierungs- und Korrekturmechanismus kombiniert, um sicherzustellen, dass die Ausgabedaten in klinischen Systemen nutzbar sind. Die Studie bewertete zwei verschiedene Prompting-Strategien über verschiedene Datenformate wie JSON, CSV und Freitext hinweg, um die Effektivität der Pipeline zu beurteilen.
Problem:
Die Integration von Gesundheitsdaten von verschiedenen Patienten-Wearables und Geräten in Krankenhausinformationssysteme stellt aufgrund mangelnder Datenstandardisierung eine erhebliche Herausforderung dar. Diese geringe Interoperabilität führt zu fragmentierten Gesundheitsinformationen, die zu fehlerhaften medizinischen Entscheidungen und einer Beeinträchtigung der effektiven Patientenversorgung führen können. Aktuelle Methoden zur Standardisierung dieser Daten sind oft manuell, arbeitsintensiv und können mit dem schnelllebigen Markt der Wearable-Technologie kaum Schritt halten.
Ergebnisse:
- Große Sprachmodelle (LLMs) können die Konvertierung patientengenerierter Gesundheitsdaten aus verschiedenen Formaten in das standardisierte FHIR-Format effektiv automatisieren und so die Interoperabilität von Gesundheitsdaten erheblich verbessern.
- Eine Datenpipeline, die eine Validierungs- und Selbstkorrekturschleife beinhaltet, erhöht die Zuverlässigkeit und Genauigkeit der LLM-Ausgabe erheblich und stellt sicher, dass sie den FHIR-Standards entspricht.
- Die Studie ergab, dass die Bereitstellung einiger konkreter Beispiele ('Few-Shot'-Prompting) für das LLM deutlich effektiver war als die Angabe abstrakter Regeln ('Reasoning'-Prompting).
- Während die LLMs erfolgreich Daten umformatierten, hatten sie Schwierigkeiten mit der semantischen Genauigkeit bei komplexen strukturierten Daten (wie JSON oder CSV), die mathematische Aggregationen erforderten, wie z. B. die Addition von Schlafphasendauern.
- Das System schnitt bei unstrukturierten Freitextdaten am besten ab, was darauf hindeutet, dass LLMs in der Verarbeitung natürlicher Sprache sehr versiert sind, aber Herausforderungen bei komplexen, verschachtelten Datenstrukturen haben, die Berechnungen erfordern.
Mehr
Ukena, Torben; Wagler, Robin; Alt, Rainer
Understanding Justice Evaluations and Fairness Percep-tions of Algorithmic Decision-Making: A Meta-Analysis Algorithmic Decision-Making, Justice Evaluations, Fairness Perceptions
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie führt eine Meta-Analyse durch und synthetisiert Daten aus 46 früheren Studien mit über 21.000 Teilnehmern, um zu verstehen, wie Menschen die Gerechtigkeit und Fairness algorithmischer Entscheidungsfindung (ADM) wahrnehmen. Die Forschung vergleicht diese Wahrnehmungen systematisch mit denen traditioneller menschlicher Entscheidungsfindung, um allgemeine Trends und Einflussfaktoren zu identifizieren.
Problem:
Da Unternehmen zunehmend Algorithmen für kritische Entscheidungen in Bereichen wie Einstellung und Management einsetzen, gibt es widersprüchliche Beweise dafür, wie diese Systeme von Einzelpersonen wahrgenommen werden. Dieser Mangel an Klarheit erschwert es Organisationen vorherzusagen, ob die Implementierung von ADM als fair angesehen wird oder ob sie zu negativen Reaktionen und Konsequenzen führen wird.
Ergebnisse:
- Im Durchschnitt nehmen Menschen von Algorithmen getroffene Entscheidungen im Vergleich zu
von Menschen getroffenen Entscheidungen als weniger fair und weniger gerecht wahr.
- Diese negativen Wahrnehmungen algorithmischer Entscheidungsfindung (ADM) führen zu ungünstigen Ergebnissen
für Organisationen, wie z. B. verringerte Attraktivität für potenzielle Mitarbeiter.
- Der Kontext, in dem ADM angewendet wird, ist entscheidend; während es im Recruiting negativ gesehen wird, kann es
in anderen Bereichen wie Bildung und Führung positiv wahrgenommen werden.
Mehr
Pomrehn, Larissa; Moritz, Josephine Mago
Acceptance Analysis of the Metaverse: An Investigation in the Paper- and Packaging Industry Metaverse, Technology Acceptance Model 3, Living lab, Paper and Packaging industry, Workplace
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersuchte die Akzeptanz von Metaverse-Technologien durch Mitarbeiter in der traditionell konservativen Papier- und Verpackungsindustrie. In einem „Living Lab“-Experiment bei einem führenden Unternehmen identifizierten die Forscher mittels Umfragen und Beobachtungen die Schlüsselfaktoren, die beeinflussen, ob Mitarbeiter bereit wären, immersive virtuelle Werkzeuge für ihre Arbeit zu übernehmen. Die Analyse basierte auf dem etablierten Technology Acceptance Model 3 (TAM3).
Problem:
Da Unternehmen stark in das Metaversum investieren, um die Fernzusammenarbeit und Effizienz zu verbessern, gibt es eine erhebliche Wissenslücke hinsichtlich der Akzeptanz dieser neuen Technologien durch die Mitarbeiter. Es ist unklar, was die Einführung in realen Geschäftsumgebungen antreibt oder verhindert, insbesondere in Industriesektoren, die typischerweise langsamer digitalisieren. Diese Forschung schließt diese Lücke, indem sie die praktischen Hürden und Vorteile aus der Perspektive der Mitarbeiter untersucht.
Ergebnisse:
- Die Akzeptanz des Metaversums durch Mitarbeiter hängt von zwei Hauptfaktoren ab: seiner wahrgenommenen Nützlichkeit (PU) für
ihre Arbeit und seiner wahrgenommenen Benutzerfreundlichkeit (PEU).
- Die Relevanz der Technologie für die spezifischen täglichen Aufgaben eines Mitarbeiters ist der wichtigste Faktor, der seine wahrgenommene Nützlichkeit bestimmt.
- Das Vertrauen eines Mitarbeiters in Computer (Computer-Selbstwirksamkeit) ist der stärkste Prädiktor dafür, ob er das Metaverse als einfach zu bedienen empfinden wird.
- Die allgemeine Akzeptanz war moderat (3,61 von 5), wobei die Mitarbeiter Potenzial für
Zusammenarbeit sahen, aber Bedenken hinsichtlich unausgereifter Technologie und klobiger Hardware wie schwerer VR-Headsets äußerten.
- Mangelnde Vorerfahrung war ein erhebliches Hindernis, da viele Teilnehmer Schwierigkeiten hatten, sich praktische Anwendungen für das Metaverse in ihrer täglichen Arbeit vorzustellen.
Mehr
Schöllkopf, Felix; Härer, Florian; Herzwurm, Georg
Generative AI Usage of University Students: Navigating Between Education and Business Artificial Intelligence, ChatGPT, Enterprise, Part-time students, Ground-Theory
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, wie Studierende, die nebenbei Teilzeit arbeiten, Künstliche Intelligenz (KI)
sowohl in ihrem akademischen als auch in ihrem beruflichen Leben einsetzen. Anhand von
Tiefeninterviews mit elf Studierenden einer Fernuniversität verwendet die Forschung einen
Grounded-Theory-Ansatz, um ein Modell zu entwickeln, das die Faktoren, Strategien und
Konsequenzen ihrer KI-Nutzung erklärt.
Problem:
Während die Nutzung von GenAI wie ChatGPT weit verbreitet ist, hat sich nur wenig Forschung auf die einzigartigen Herausforderungen und Verhaltensweisen von Teilzeitstudenten konzentriert, die ihre Anwendung sowohl im Bildungs- als auch im Geschäftsbereich meistern müssen. Diese Studie schließt diese Lücke, indem sie untersucht, wie diese spezielle Gruppe die Produktivitätsvorteile von GenAI gegen Bedenken wie Datenschutz, Genauigkeit und akademische Integrität in ihren doppelten Rollen abwägt.
Ergebnisse:
- Produktivitätssteigerung: Studierende nutzen GenAI, um ihre Effizienz zu steigern und Zeit bei schulischen und beruflichen Aufgaben zu sparen, wie z. B. beim Zusammenfassen von Inhalten, Anpassen von Sprache und Generieren von Ideen.
- Vorsichtige Anwendung: Während sie GenAI für berufliche Aufgaben nutzen, sind sich Studierende der Risiken für die Datensicherheit sehr bewusst und vermeiden die Eingabe sensibler Unternehmensinformationen in öffentliche Tools.
- Hauptbedenken bleiben: Die Hauptnachteile sind das Risiko ungenauer oder „halluzinierter“ Ergebnisse, die Notwendigkeit klarer ethischer Richtlinien von Universitäten und Datenschutzüberlegungen.
- Zukunftsfähige Kompetenz: Die Teilnehmenden betrachten die Beherrschung von GenAI als eine entscheidende zukünftige berufliche Fähigkeit und äußerten den starken Wunsch nach mehr formaler Schulung durch ihre Universitäten.
- Ersatz traditioneller Werkzeuge: GenAI wird häufig als schnellere Alternative zu traditionellen Suchmaschinen wie Google für die Informationsbeschaffung eingesetzt.
Mehr
Walke, Fabian; Föller, Veronika
Exploring Algorithmic Management Practices in Healthcare - Use Cases along the Hospital Value Chain Algorithmic Management, Healthcare, Hospital Value Chain, Qualitative Interview Study
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, wie algorithmisches Management (AM) in Krankenhäusern zur Bewältigung von Koordinations- und Steuerungsaufgaben eingesetzt wird, die traditionell von menschlichen Managern ausgeführt werden. Mit einem qualitativen Ansatz führte die Forschung neun semistrukturierte Interviews mit Ärzten, Softwareanbietern und einem Fachexperten durch, um zu identifizieren, wie AM in der Wertschöpfungskette des Krankenhauses angewendet wird, von der Patientenaufnahme bis zur Verwaltung.
Problem:
Während das algorithmische Management bei gering qualifizierter, plattformbasierter Arbeit gut erforscht ist, bleibt seine Anwendung in hochqualifizierten, traditionellen Branchen wie dem Gesundheitswesen weitgehend unerforscht. Krankenhäuser stehen vor erheblichen Herausforderungen, darunter Personalengpässe und komplexe Koordinationsanforderungen, was einen dringenden Bedarf an Verständnis dafür schafft, wie algorithmische Systeme die operative Effizienz und die Ressourcenallokation in diesem risikoreichen Umfeld verbessern können.
Ergebnisse:
- Die Studie identifizierte fünf zentrale Anwendungsfälle für algorithmisches Management in Krankenhäusern: Patientenaufnahme
Management, Bettenmanagement, Zuweisung von Ärzten zu Patienten, Personalmanagement und
Leistungsüberwachung.
- AM-Systeme verbessern die Effizienz von Krankenhäusern erheblich, indem sie administrative Aufgaben automatisieren,
die Arbeitsbelastung des Personals reduzieren, die Bettenauslastung optimieren und eine gerechtere Aufgabenverteilung unter den Ärzten gewährleisten.
- Im Gegensatz zur Gig Economy ergänzt AM in Krankenhäusern menschliche Manager, indem es
algorithmische Logik in bestehende Strukturen einbettet, anstatt sie vollständig zu ersetzen.
- Während AM für die Effizienz von Vorteil ist, kann es durch starre Zeitpläne und zeitbasierte Leistungsziele auch Druck auf das Personal ausüben, und die Leistungsüberwachung mangelt oft an Transparenz für
Kliniker.
- Die Technologie verbessert die Patientenversorgung, indem sie dringende Fälle algorithmisch priorisiert,
Patienten mit den am besten geeigneten Ärzten abgleicht und die Kontinuität der Versorgung bei Nachsorgeterminen verbessert.
Mehr
Kempf, Maximilian; Simić, Filip; Doerr, Maria; Benlian, Alexander
Setting the Scene for a European Patient Pathway Template Repository care networks, design science, patient pathway, systematic literature review, template repository
Podcast:
Link kopieren
Zusammenfassung:
Diese Forschung stellt das Konzept eines Patient Pathway Template Repository (PPTR) vor, um Krebsbehandlungsprozesse in europäischen Gesundheitsnetzwerken zu standardisieren und zu verbessern. Die Studie legt den Grundstein für die Entwicklung dieses Repositories unter Anwendung eines Design-Science-Research-Ansatzes, der die Analyse von Stakeholder-Erwartungen und die Überprüfung bestehender Literatur umfasst. Das Endziel ist die Schaffung einer zentralen Plattform für die Entwicklung, Verwaltung und Implementierung von Patient-Pathway-Vorlagen.
Problem:
Die Entwicklung und Implementierung von Patientenpfaden – strukturierten Plänen für die Patientenversorgung – ist eine komplexe, kostspielige und nicht standardisierte Aufgabe, insbesondere in facettenreichen Bereichen wie der Krebsbehandlung. Dieser Mangel an einem einheitlichen Ansatz führt zu Inkonsistenzen in der Behandlungsqualität und zu einer ineffizienten Ressourcennutzung zwischen verschiedenen Krankenhäusern und Regionen. Diese Studie befasst sich mit dem Fehlen einer gemeinsamen, kollaborativen Plattform für die Erstellung, Anpassung und den Austausch von evidenzbasierten Patientenpfad-Vorlagen unter Leistungserbringern.
Ergebnisse:
- Stakeholder erwarten, dass ein zentrales Repository die Standardisierung und Qualität der Krebsversorgung erheblich verbessern und zu besseren Patientenergebnissen führen wird.
- Die wichtigsten identifizierten Vorteile sind verbesserter Wissensaustausch, die Möglichkeit, Leistungen mit Best Practices zu vergleichen, und erhöhte Effizienz durch Vermeidung von Doppelarbeit.
- Zu den wichtigsten Bedenken potenzieller Nutzer gehören die praktische Anwendbarkeit von Vorlagen im klinischen Alltag, ihre Anpassungsfähigkeit an lokale Bedürfnisse sowie die Herausforderungen der langfristigen Wartung und Aktualisierung.
- Die Forschung kommt zu dem Schluss, dass ein erfolgreiches Repository benutzerfreundlich sein, sowohl Standardisierung als auch Flexibilität ermöglichen und durch einen Community-gesteuerten Ansatz und ein klares Governance-Modell unterstützt werden muss.
Mehr
Schädlich, Madita; Richter, Peggy; Schlieter, Hannes
Designing for Digital Inclusion: Iterative Enhancement of a Process Guidance User Interface for Senior Citizens Usability for Seniors, Process Guidance, Digital Accessibility
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, wie die digitale Inklusion älterer Menschen durch die Kombination von Richtlinien für das User Interface Design mit Prozessanleitungen verbessert werden kann. Unter Anwendung eines Design Science Research Ansatzes entwickelten die Forscher einen Prototyp einer Reisebuchungswebsite und verfeinerten diesen iterativ basierend auf heuristischen Evaluationen mit 13 älteren Teilnehmern.
Problem:
Da wesentliche Dienste und Geschäftsprozesse zunehmend online stattfinden, sehen sich Senioren oft erheblichen Hindernissen bei der digitalen Teilhabe gegenüber, was zu technologischen und sozialen Nachteilen führt. Dies schafft eine digitale Kluft, die einen wachsenden Teil der Bevölkerung ausschließt und eine verpasste Gelegenheit für Unternehmen darstellt, ihre Kundenbasis zu erweitern.
Ergebnisse:
- Ein strukturiertes Prozessführungssystem, das alle Schritte einer Online-Aufgabe visuell abbildet,
verbessert die Leistung für ältere Benutzer erheblich und reduziert deren Abschlusszeit.
- Wichtige Designprinzipien für Senioren umfassen die Reduzierung von Komplexität, die Verwendung großer Schriftarten mit hohem Kontrast,
die Beibehaltung von Designkonsistenz und die Bereitstellung von klarem, sofortigem Feedback.
- Die Integration von Hilfeanweisungen direkt in die Benutzeroberfläche ist effektiver als separate Hilfe-
bereiche, da sie die kognitive Belastung der Benutzer reduziert.
- Unternehmen, die ihre Online-Benutzeroberflächen seniorenfreundlich gestalten, können eine wachsende
Bevölkerungsgruppe besser bedienen und sowohl soziale Inklusion als auch kommerzielle Reichweite verbessern.
Mehr
Stadler, Michael; Noeltner, Markus; Kroenung, Julia
A Holistic Framework for the Successful Upscaling of Smart City Projects smart city framework, pilot project, upscaling, success factors, business model
Podcast:
Link kopieren
Zusammenfassung:
Diese Forschung identifiziert die kritischen Faktoren für die erfolgreiche Skalierung von Smart City (SC)-Pilotprojekten über die experimentelle Phase hinaus. Durch eine thematische Analyse von 129 wissenschaftlichen Artikeln entwickelt die Studie einen ganzheitlichen Rahmen, der Schlüsselfaktoren für den Erfolg in vier Dimensionen kategorisiert: finanziell, organisatorisch, sozial und technisch. Ziel ist es, Städten einen umfassenden Leitfaden an die Hand zu geben, um häufige Hindernisse zu überwinden und das volle Potenzial ihrer SC-Initiativen zu realisieren.
Problem:
Viele vielversprechende Smart-City-Projekte scheitern nach einem erfolgreichen Test, ein Problem, das als
„Pilotierungsfalle“ bekannt ist. Dies liegt oft an mangelnder wirtschaftlicher Nachhaltigkeit, tragfähigen Betriebsmodellen
und Markt readiness. Bestehende Forschung zu diesem Thema beschränkt sich häufig auf spezifische Anwendungsfälle oder
Regionen, was die Notwendigkeit eines universelleren Rahmens unterstreicht, um eine erfolgreiche Skalierung über
unterschiedliche urbane Kontexte hinweg zu steuern.
Ergebnisse:
- Das erfolgreiche Upscaling von Smart-City-Projekten erfordert einen ganzheitlichen Ansatz, der vier
voneinander abhängige Dimensionen ausbalanciert: Finanziell, Organisatorisch, Sozial und Technisch.
- Zu den wichtigsten finanziellen Treibern gehören die Sicherung institutioneller Finanzierung, die Schaffung klarer Monetarisierungspläne sowie
die Durchführung gründlicher Risikobewertungen und Wirtschaftlichkeitsberechnungen.
- Organisatorischer Erfolg hängt am stärksten von starker interorganisatorischer Zusammenarbeit und
Partnerschaften ab, unterstützt durch effektive Governance, Führung und Wissenstransfer.
- Die soziale Akzeptanz hängt von einem hohen Maß an bürgerschaftlichem Engagement und Beteiligung ab, sowie von
der Schaffung von Vertrauen und der Gewährleistung der Zuverlässigkeit der neuen Systeme.
- Aus technischer Sicht ist die Interoperabilität zwischen verschiedenen Systemen der wichtigste Faktor für einen reibungslosen Datenaustausch und eine kostengünstige Skalierung.
Mehr
Habte, WINTANA Tsigeyohanes; Kurz, Eberhard
Designing Digital Service Innovation Hubs: An Ecosystem Perspective on the Challenges and Requirements of SMEs and the Public Sector service innovation, service ecosystem, digital service innovation hubs, small and medium-sized enterprises, public organizations
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, wie ein Digital Service Innovation Hub (DSIH) gestaltet werden kann, um kleine und mittlere Unternehmen (KMU) und öffentliche Organisationen bei der Zusammenarbeit an Innovationen zu unterstützen. Basierend auf Erkenntnissen aus 17 Experteninterviews und Fokusgruppen identifiziert die Forschung gemeinsame Herausforderungen und schlägt eine detaillierte Reihe von Anforderungen für den Aufbau eines effektiven Hubs vor, der Innovationsaktivitäten aktiv koordiniert.
Problem:
Kleine und mittlere Unternehmen (KMU) und Organisationen des öffentlichen Sektors tun sich oft schwer bei der Entwicklung neuer digitaler Dienste, da ihnen die notwendigen Ressourcen, Fachkenntnisse und Verbindungen fehlen. Bestehende Innovationszentren konzentrieren sich typischerweise auf eng gefasste technologische Lösungen und bieten nicht die umfassende, koordinierte Unterstützung, die zur Bewältigung komplexer Innovationsprojekte mit mehreren Partnern erforderlich ist.
Ergebnisse:
- Die Studie identifizierte vier Haupthindernisse für Innovationen bei KMU und öffentlichen Organisationen: externe
Faktoren (Markt- und Technologiewandel), interne Herausforderungen (resistente Kultur, Ressourcenknappheit),
Wissens- und digitale Kompetenzlücken sowie Schwierigkeiten bei der Partnerfindung und -verwaltung.
- Zur Überwindung dieser Hindernisse sollte ein Digital Service Innovation Hub (DSIH) um drei Kernfunktionen herum konzipiert werden: Orchestrierung der Zusammenarbeit verschiedener Akteure, Förderung des Wissenstransfers und Sicherstellung der Praxistauglichkeit und Nachhaltigkeit der Plattform.
- Als „Orchestrator“ muss der Hub fortschrittliche Werkzeuge für das Matchmaking von Partnern (z. B. KI-gestützte Empfehlungen und Suchfilter) bereitstellen, Kooperationen vermitteln und seinen Wert klar kommunizieren, um Nutzer zu gewinnen.
- Der Hub muss als Lernkatalysator fungieren, indem er Zugang zu kuratierten Inhalten, Best Practices und Erfolgsgeschichten sowie zu strukturierten Formaten wie Foren und Mentoring für den Peer-to-Peer-Wissensaustausch bietet.
- Für eine erfolgreiche Einführung muss die DSIH-Plattform benutzerfreundlich sein, modulare Lösungen anbieten, zuverlässigen technischen Support leisten und mit einem transparenten Geschäftsmodell arbeiten, das Engagement, Preise und Erwartungen definiert.
The GenAI Who Knew Too Little – Revisiting Transactive Memory Systems in Human GenAI Collaboration Generative AI, Transactive Memory Systems, Human-AI Collaboration, Knowledge Work
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, wie sich Transaktive Gedächtnissysteme (TMS), eine Theorie, die erklärt, wie menschliche Teams gemeinsames Wissen verwalten, in der Zusammenarbeit zwischen Menschen und generativer KI (GenAI) manifestieren. Durch qualitative Interviews mit 14 Wissensarbeitern analysiert die Forschung die einzigartigen Dynamiken von Spezialisierung, Glaubwürdigkeit und Koordination, die entstehen, wenn Menschen mit KI zusammenarbeiten. Die Ergebnisse zeigen signifikante Abweichungen von traditionellen Mustern der menschlich-menschlichen Zusammenarbeit.
Problem:
Da GenAI zunehmend als kollaborativer Partner in die Wissensarbeit integriert wird, veralten bestehende Rahmenwerke zum Verständnis von Teamarbeit, da sie für rein menschliche Interaktionen konzipiert wurden. Dies schafft eine Lücke im Verständnis dafür, wie menschlich-KI-Partnerschaften effektiv gestaltet werden können, was oft zu suboptimalen Arbeitsabläufen, unausgewogener Verantwortung und fehlplatziertem Vertrauen führt.
Ergebnisse:
- Menschen zeigen ein ambivalentes Vertrauen in GenAI, erkennen deren Expertise an, hinterfragen aber gleichzeitig deren Glaubwürdigkeit, was eine ständige manuelle Überprüfung der Ergebnisse erforderlich macht.
- Die Zusammenarbeit ist asymmetrisch und hierarchisch, wobei Menschen konsequent Aufgaben initiieren und eine passive GenAI anleiten, der es an Initiative mangelt, im Gegensatz zur proaktiven und gegenseitigen Natur menschlicher Teams.
- Die Anerkennung von Expertise ist einseitig; während Menschen die Fähigkeiten von GenAI erlernen, entwickelt die KI kein beständiges Gedächtnis für die Fähigkeiten oder den Kontext des Menschen, sondern setzt ihr Verständnis bei jeder neuen Interaktion zurück.
- Die Studie schlägt vor, Teamwork-Theorien anzupassen, um das temporäre Gedächtnis und die fehlende soziale Dimension von GenAI zu berücksichtigen, um bessere kollaborative Systeme zu entwickeln.
A Survey on Citizens’ Perceptions of Social Risks in Smart Cities smart cities, social risks, citizens’ perception, AI ethics, social impact
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht die Wahrnehmung von Bürgern bezüglich sozialer Risiken, die mit der Entwicklung von Smart Cities verbunden sind. Durch eine quantitative Umfrage unter 310 Teilnehmern in Deutschland und Italien identifiziert die Forschung 15 zentrale soziale Risiken und analysiert, wie Bürger deren Eintrittswahrscheinlichkeit und potenzielle Schwere bewerten.
Problem:
Die schnelle digitale Transformation von Städten konzentriert sich oft auf technologische Vorteile und vernachlässigt dabei potenzielle soziale Gefahren wie Datenschutzverletzungen, verstärkte Überwachung und Cyberbedrohungen. Diese Lücke kann das Vertrauen und das Wohlergehen der Öffentlichkeit untergraben, doch die Perspektiven der Bürger auf diese Risiken werden bei der Planung und Umsetzung von Smart-City-Initiativen häufig ignoriert.
Ergebnisse:
- Bürger haben eine zwiespältige Wahrnehmung: Sie sind smarten Städten generell positiv eingestellt,
bewerten die damit verbundenen sozialen Risiken aber auch als hoch wahrscheinlich und gravierend.
- Das Risiko eines persönlichen „Profiling“ wurde als am wahrscheinlichsten eingeschätzt, während „Cybersicherheitsbedrohungen“
als die gravierendsten Auswirkungen hatten.
- Die Risikowahrnehmung wird von demografischen Merkmalen beeinflusst, wobei ältere Teilnehmer und italienische Bürger
Risiken höher einschätzen als ihre jüngeren und deutschen Altersgenossen.
- Trotz großer Bedenken hinsichtlich der Risiken sind die Bürger bereit, sich an Smart-City-Projekten zu beteiligen und mit ihnen zu kooperieren, was auf den Wunsch nach einer partizipativeren und ethischeren Entwicklung hindeutet.
Mehr
Fantino, Elena; Lins, Sebastian; Sunyaev, Ali
Aisle be Back: State-of-the-Art Adoption of Retail Service Robots in Brick-and-Mortar Retail Retail Service Robot, Brick-and-Mortar, Technology Adoption, Artificial Intelligence, Automation
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie analysiert den aktuellen Stand der Einführung von Servicerobotern im Einzelhandel (RSR) in physischen, stationären (B&M;) Geschäften. Mithilfe eines dualen Ansatzes kombiniert die Forschung eine systematische Überprüfung der akademischen Literatur mit einer Multi-Fallstudie führender europäischer Einzelhändler. Ziel ist es, einen ganzheitlichen Überblick darüber zu geben, wie Roboter in der Theorie und in der Praxis für spezifische operative Aufgaben eingesetzt werden.
Problem:
Der städtische Einzelhandel steht unter wachsendem Druck durch akuten Personalmangel, steigende Betriebskosten und intensiven Wettbewerb durch den E-Commerce. Während Retail-Serviceroboter eine potenzielle Lösung zur Verbesserung der Effizienz und des Kundenerlebnisses bieten, fehlt ein klares Verständnis dafür, wie sie derzeit eingesetzt werden und welche Aufgaben sie erfüllen, was eine Lücke zwischen ihrem Potenzial und ihrer tatsächlichen Nutzung schafft.
Ergebnisse:
- Einzelhandelsdienstleistungsroboter werden am häufigsten für Kundenserviceaufgaben, Informationsaustausch und den Transport von Waren innerhalb des Geschäfts eingesetzt.
- Das volle Potenzial von RSRs ist weitgehend ungenutzt, da sie typischerweise für einfache, einzweckbezogene Aufgaben und nicht für komplexe oder multifunktionale Rollen eingesetzt werden.
- Es besteht eine erhebliche Lücke zwischen der akademischen Forschung, die sich stark auf kundenorientierte Roboter konzentriert, und dem realen Einsatz, bei dem Einzelhändler bei der Nutzung von Robotern im Kundenservice vorsichtiger sind.
- Die aktuelle RSR-Entwicklung priorisiert Kundeninteraktionen, wobei viel weniger berücksichtigt wird, wie Roboter Mitarbeiter unterstützen und in ihre täglichen Arbeitsabläufe integriert werden können.
- Insgesamt befindet sich die Einführung von RSRs im Einzelhandel noch in einem frühen Stadium und wird durch organisatorische Barrieren, technologische Herausforderungen und die Notwendigkeit eines besseren Verständnisses der Akzeptanz durch Kunden und Mitarbeiter behindert.
Mehr
Strelow, Luisa Elena; Harr, Michael Dominic; Schütte, Reinhard
A Multi-Level Strategy for Deepfake Content Moderation under EU Regulation Deepfakes, EU Regulation, Online Platforms, Content Moderation, Political Communication
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie analysiert bestehende Methoden zur Identifizierung und Kennzeichnung von KI-generierten Deepfakes im Kontext neuer EU-Vorschriften. Durch eine umfassende Literaturübersicht bewerten die Autoren die Grenzen einzelner Detektionstechniken. Anschließend schlagen sie eine neuartige mehrstufige Strategie vor, die technische Erkennung, vertrauenswürdige menschliche Überprüfung und Risikobewertung kombiniert, um Online-Plattformen bei der effektiven und skalierbaren Inhaltsmoderation zu unterstützen.
Problem:
Die Verbreitung von Deepfakes stellt eine erhebliche Bedrohung für die Gesellschaft dar, da sie die Verbreitung von Fehlinformationen ermöglicht und die öffentliche Meinung, insbesondere in der Politik, manipuliert. Während die EU neue Gesetze wie den KI-Gesetz und das Gesetz über digitale Dienste erlassen hat, um Transparenz vorzuschreiben, fehlt Online-Plattformen ein praktischer und skalierbarer Rahmen zur Einhaltung. Einzelne Erkennungsmethoden reichen oft nicht aus, um das Volumen und die Raffinesse moderner Deepfakes zu bewältigen, was zu einer kritischen Lücke bei der Durchsetzung führt.
Ergebnisse:
- Bestehende Einzelmethoden zur Erkennung von Deepfakes, wie Wasserzeichen oder Artefaktanalysen, sind allein
unzureichend, um die Anforderungen der EU-Vorschriften zu erfüllen, und sind anfällig für
Manipulation.
- Die Forschung schlägt eine praktische mehrstufige Strategie vor, die mehrere Erkennungsansätze kombiniert, um ein robusteres System zur Inhaltsmoderation für Online-Plattformen zu schaffen.
- Die erste Stufe der Strategie kategorisiert Inhalte schnell, indem sie eingebettete digitale Markierungen überprüft, die sie entweder als Deepfake identifizieren oder als authentisch verifizieren.
- Für nicht markierte Inhalte verwendet eine zweite Stufe ein Bewertungssystem, das automatisierte technische Erkennung, vertrauenswürdige menschliche Überprüfung und eine Bewertung des potenziellen Schadens des Inhalts kombiniert.
- Diese risikobasierte Bewertung ermöglicht es Plattformen, klare Kennzeichnungen wie 'Deepfake', 'Warnung' oder 'Verifiziert' anzubringen, wodurch der Moderationsprozess transparenter, skalierbarer und anpassungsfähiger wird.
Ensembling vs. Delegating: Different Types of AI-Involved Decision-Making and Their Effects on Procedural Fairness Perceptions Decision-Making, AI Systems, Procedural Fairness, Ensemble, Delegation
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, wie Mitarbeiter die Fairness von Entscheidungen wahrnehmen, die mit KI-Beteiligung getroffen werden, und vergleicht dabei speziell zwei Ansätze: die vollständige Delegation an eine KI versus ein kollaboratives menschlich-KI-Ensemble. Durch ein Online-Experiment mit 79 Teilnehmern maß die Forschung, wie sich diese verschiedenen Entscheidungsprozesse im Kontext einer Leistungsbeurteilung auf die Wahrnehmung von Fairness und Vertrauen in das Management auswirken.
Problem:
Da Unternehmen KI zunehmend für wichtige Entscheidungen zur Effizienzsteigerung nutzen, riskieren sie negative Reaktionen von Mitarbeitern. Entscheidungen, die KI betreffen, werden oft als weniger fair wahrgenommen als solche, die von Menschen getroffen werden, was das Vertrauen in die Führung untergraben und die Moral beeinträchtigen kann. Diese Studie befasst sich damit, wie verschiedene Methoden der KI-Integration diese negativen Wahrnehmungen entweder verschlimmern oder abmildern können.
Ergebnisse:
- Die vollständige Delegation einer Entscheidung, wie z.B. einer Leistungsbeurteilung, an ein KI-System wird als deutlich weniger fair wahrgenommen als eine Entscheidung eines menschlichen Vorgesetzten.
- Diese reduzierte Fairnesswahrnehmung führt direkt zu einem geringeren Vertrauen der Mitarbeiter in den Vorgesetzten, der die Aufgabe delegiert hat.
- Ein kollaborativer „Ensemble“-Ansatz, bei dem ein Vorgesetzter und eine KI gleichermaßen an der Entscheidung beteiligt sind, verursacht diesen negativen Effekt nicht; er wird als genauso fair wahrgenommen wie ein rein menschlicher Prozess.
- Das Ergebnis der Entscheidung (z.B. ein hoher vs. niedriger Bonus) ändert die negative Wahrnehmung der Ungerechtigkeit nicht, wenn eine Aufgabe vollständig an eine KI delegiert wird.
- Um das Vertrauen zu erhalten, sollten Unternehmen kollaborative Mensch-KI-Modelle gegenüber der vollständigen Delegation an autonome Systeme bevorzugen.
Mehr
Diebel, Christopher; Kassymova, Akylzhan; Stein, Mari-Klara; Adam, Martin; Benlian, Alexander
The Value of Blockchain-Verified Micro-Credentials in Hiring Decisions micro-credentials, blockchain, trust, verification, employer decision-making
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, wie Blockchain-Verifizierung und die Art der ausstellenden Institution (Universität vs. Lernakademie) die Wahrnehmung von Arbeitgebern hinsichtlich der Vertrauenswürdigkeit, des Fachwissens und der Gehaltsvorstellungen eines Bewerbers beeinflussen. Mithilfe eines experimentellen Designs bewerteten 200 Teilnehmer einen Kandidaten basierend auf einer von vier Mikro-Zertifikatsvarianten, um Unterschiede bei Einstellungsentscheidungen zu messen.
Problem:
Traditionelle akademische Zeugnisse sind langsam und teuer in der Überprüfung, während neue Mikro-Zertifikate von
verschiedenen Anbietern unter einem Mangel an Vertrauen und Anerkennung bei Arbeitgebern leiden. Diese Studie
befasst sich mit der Unsicherheit, ob die Blockchain-Technologie diese Vertrauenslücke schließen und
Mikro-Zertifikate zu einem praktikablen und wertvollen Werkzeug im Einstellungsprozess machen kann.
Ergebnisse:
- Die Blockchain-Verifizierung hat die Wahrnehmung der Vertrauenswürdigkeit oder Expertise eines Bewerbers durch Arbeitgeber nicht signifikant erhöht.
- Arbeitgeber zeigten keine signifikante Präferenz für Qualifikationen, die von einer Universität ausgestellt wurden, gegenüber denen von einer nicht-universitären Lernakademie, was auf eine Verlagerung hin zu einer auf Fähigkeiten basierenden Bewertung gegenüber institutionellem Prestige hindeutet.
- Bewerber mit Blockchain-verifizierten Qualifikationen erhielten paradoxerweise niedrigere Mindestgehaltsangebote, möglicherweise weil leicht verifizierbare Qualifikationen das wahrgenommene Anstellungsrisiko verringern, was zu konservativeren Anfangsangeboten führt.
- Die Ergebnisse deuten darauf hin, dass die Quelle einer Qualifikation für Arbeitgeber weniger wichtig wird als die nachgewiesenen Fähigkeiten, die sie repräsentiert.
Mehr
Stafyeyeva, Lyuba
Constructing Insights: Leveraging Large Language Models for Information Retrieval in Unstructured Document Collections with ConSight Large Language Models, Information Retrieval, Knowledge Work, Prototype
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie stellt "ConSight" vor, ein Prototyp-System, das darauf ausgelegt ist, Wissensarbeiter in der Bauindustrie bei der Verwaltung und dem Abruf von Informationen aus großen, unstrukturierten Dokumentensammlungen zu unterstützen. Unter Verwendung einer Design-Science-Research-Methodik nutzt das System Large Language Models (LLMs), um die Informationsbeschaffung mit multimodaler Datenunterstützung zu integrieren, den Informationszugriff zu verbessern und kontextuelles Verständnis zu ermöglichen.
Problem:
Wissensarbeiter, insbesondere in dokumentenintensiven Branchen wie dem Baugewerbe, sind oft
überwältigt von der schieren Menge unstrukturierter Daten, die sie täglich verarbeiten müssen. Aktuelle
LLM-basierte Systeme kämpfen damit, genaue, relevante und kontextspezifische Informationen effizient
bereitzustellen, und scheitern oft daran, verschiedene Datenformate über einfachen Text hinaus zu verarbeiten
oder die Vertrauenswürdigkeit ihrer Ausgaben zu gewährleisten.
Ergebnisse:
- Entwickelte „ConSight“, ein Prototypensystem, das Large Language Models (LLMs) nutzt, um Fachleuten dabei zu helfen, Informationen aus großen, unstrukturierten Dokumentensammlungen zu extrahieren und zu strukturieren.
- Identifizierte acht zentrale Designanforderungen für ein effektives Wissensunterstützungswerkzeug, darunter mehrperspektivische Dokumentenorganisation, benutzerspezifische Informationsanzeigen, Zeitlinienansichten und die Erkennung von Dateninkonsistenzen.
- Entwarf eine modulare Architektur mit Funktionen für adaptive Intelligenz, Dokumentenverwaltung und Validierung, die sicherstellt, dass alle KI-generierten Erkenntnisse auf ihre ursprüngliche Quelle zurückgeführt werden können.
- Erstellte ein benutzerorientiertes Dashboard, das komplexe Informationen nach Thema oder Zeitlinie organisiert, die Zugänglichkeit verbessert und das Vertrauen der Benutzer durch Transparenz aufbaut.
- Die Forschung bietet einen praktischen Rahmen für den Aufbau von KI-Werkzeugen, die riesige Dokumentenarchive in umsetzbare, kontextbezogene Erkenntnisse umwandeln können.
Mehr
Diener, Moritz M.; Schäfer, Sebastian; Spitzer, Philipp; Vössing, Michael
Evaluating student preferences: Peer feedback vs. LLM-generated feedback for programming projects large language models, feedback, education, programming
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, wie Studienanfänger das Feedback von großen Sprachmodellen (LLMs) zu ihren Programmierprojekten im Vergleich zu Feedback von Kommilitonen wahrnehmen. An der Untersuchung nahmen 167 Studierende eines Einführungskurses in Programmierung und Datenwissenschaft teil, die das LLM-Feedback anhand von Kriterien wie Hilfreichkeit, Klarheit und motivationaler Qualität bewerteten.
Problem:
Die Bereitstellung von personalisiertem, qualitativ hochwertigem Feedback in großen Bildungskursen ist aufgrund begrenzter Zeit und Ressourcen der Lehrenden eine Herausforderung. Während Peer-Feedback eine gängige Alternative darstellt, kann seine Wirksamkeit durch die begrenzte Expertise der studentischen Prüfer und die Zurückhaltung anderer, Peer-Urteile zu akzeptieren, beeinträchtigt werden, was die Notwendigkeit skalierbarer und effektiver Feedbacklösungen schafft.
Ergebnisse:
- Eine Mehrheit der Studierenden (56%) bevorzugte das vom LLM generierte Feedback gegenüber dem Feedback ihrer Kommilitonen.
- Die Studierenden hatten Schwierigkeiten, zwischen KI- und menschlichem Feedback zu unterscheiden, wobei 52 % nicht korrekt identifizieren konnten, welche Kommentare vom LLM stammten.
- Das LLM-Feedback wurde über die meisten Qualitätsdimensionen hinweg positiv wahrgenommen, einschließlich konstruktiv, hilfreich, verständlich und zufriedenstellend.
- Die Hauptkritikpunkte waren, dass dem Feedback ein motivierendes Element fehlte und die Studierenden sich wünschten, es wäre personalisierter und würde detailliertere Verbesserungsvorschläge bieten.
Design Principles for SME-Focused Maturity Models in Information Systems Design Principles, Maturity Model, Capability Assessment, SME
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie befasst sich mit den Herausforderungen, vor denen kleine und mittlere Unternehmen (KMU) bei der Nutzung von Reifegradmodellen (MMs) zur Bewertung ihrer Geschäftsfähigkeiten stehen. Forscher analysierten 28 wissenschaftliche Arbeiten, um zehn spezifische Designprinzipien für die Entwicklung von nutzbareren und effektiveren, auf KMU zugeschnittenen MMs zu entwickeln. Der praktische Nutzen dieser Prinzipien wurde anschließend durch eine Umfrage unter 18 Branchen- und Akademiker-Experten bestätigt.
Problem:
Standardisierte Reifegradmodelle, die Organisationen bei der Bewertung und Verbesserung ihrer Prozesse unterstützen, sind für kleine und mittlere Unternehmen (KMU) oft zu komplex, ressourcenintensiv und allgemein gehalten. Diese Diskrepanz hindert KMU mit begrenzten Ressourcen und spezifischen Anforderungen daran, diese wertvollen Werkzeuge effektiv für ihr Wachstum und ihre digitale Transformation zu nutzen.
Ergebnisse:
- Die Studie lieferte zehn umsetzbare Designprinzipien für die Entwicklung von auf KMU ausgerichteten Reifegradmodellen.
- Diese Prinzipien betonen die Erstellung von Modellen, die an spezifische Unternehmensgrößen oder Sektoren anpassbar sind und eine ganzheitliche, aber einfache Sicht auf die Fähigkeiten bieten.
- Eine zentrale Empfehlung ist die Einbeziehung intuitiver Selbstbewertungstools, wodurch die Notwendigkeit kostspieliger externer Berater reduziert wird.
- Die Prinzipien befürworten ein Gleichgewicht zwischen theoretischer Fundiertheit und praktischer Anwendbarkeit in der realen Welt.
- Eine Expertenbefragung bestätigte den hohen praktischen Wert der vorgeschlagenen Prinzipien und deutete darauf hin, dass sie erfolgreich bei der Entwicklung effektiverer Werkzeuge für KMU helfen können.
Mehr
Rösl, Stefan; Schallmo, Daniel; Schieder, Christian
Humanoid Service Robots and Service Quality: Insights from a Bank Branch Prototype Humanoid service robots, service quality, banking services, field observations, prototype evaluation
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie analysierte Kundeninteraktionen mit einem humanoiden Roboter namens Pepper, der zwei Wochen lang in einer deutschen Bankfiliale eingesetzt wurde. Die Forschung zielte darauf ab zu verstehen, wie der Roboter die Wahrnehmung der Servicequalität durch die Kunden beeinflusste, indem seine Leistung in zwei Rollen beobachtet wurde: Unterstützung bei der Fehlerbehebung im Online-Banking und Bereitstellung von Unterhaltung.
Problem:
Die Bankenbranche, insbesondere in Deutschland, sieht sich mit einem erheblichen Arbeitskräftemangel konfrontiert, der die Qualität des persönlichen Kundenservices bedroht. Banken prüfen Automatisierungslösungen wie Serviceroboter, um Routineanfragen zu bearbeiten, die betriebliche Effizienz zu verbessern und menschliche Mitarbeiter für komplexere Finanzberatungsaufgaben freizusetzen.
Ergebnisse:
- Der Roboter scheiterte bei seiner Hauptaufgabe, den Online-Banking-Support zu leisten, und war aufgrund technischer Einschränkungen und Ungeduld der Kunden nur in 7 % der Versuche erfolgreich.
- Der Roboter war als Unterhaltungs- und Informationswerkzeug sehr erfolgreich, wobei 76 % dieser Interaktionen abgeschlossen wurden und positive emotionale Reaktionen von Kunden hervorgerufen wurden.
- Die Präsenz des Roboters verbesserte das innovative Image der Bank erheblich und diente als öffentlichkeitswirksames Symbol für die Technologieadaption.
- Die Kunden bevorzugten die Verwendung des Touchscreens des Roboters gegenüber Sprachbefehlen stark, was darauf hindeutet, dass vertraute Benutzeroberflächen für die Kunden-Roboter-Interaktion effektiver sind.
- Der Roboter hatte eine positive soziale Wirkung, indem er Aufmerksamkeit erregte und Gespräche unter den Kunden in der Bankfiliale anregte.
Mehr
Alt, Rainer; Hornuf, Lars; Meiler, Maximilian
Evaluating Consumer Decision-Making Trade-Offs in Smart Service Systems in the Smart Home Domain Smart Service Systems, Smart Home, Conjoint, Consumer Preferences, Privacy
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht die Kompromisse, die Verbraucher beim Kauf von Smart-Home-Geräten eingehen. Mittels einer Choice-Based Conjoint Analyse bewertet die Forschung die relative Bedeutung von acht verschiedenen Attributen in Bezug auf Leistung, Datenschutz und Marktfaktoren wie Preis und Anbieter.
Problem:
Da Smart-Home-Technologie immer weiter verbreitet ist, ist unklar, wie Verbraucher konkurrierende Faktoren wie Geräte-Leistung, Datenschutz und Preis abwägen. Diese Studie schließt die Lücke im Verständnis dieser Entscheidungs-Kompromisse, was für die Entwicklung von Produkten, denen Verbraucher vertrauen und die sie annehmen werden, von entscheidender Bedeutung ist.
Ergebnisse:
- Zuverlässigkeit ist der wichtigste Faktor für Verbraucher bei der Auswahl eines Smart-Home-Geräts,
dicht gefolgt vom Ruf und Standort des Anbieters.
- Überraschenderweise spielen der Preis und spezifische Datenschutzfunktionen (wie der Speicherort der Daten oder Benutzereinstellungen) eine
wesentlich kleinere Rolle im Entscheidungsprozess als Zuverlässigkeit und Anbieter.
- Verbraucher bevorzugen nachdrücklich Geräte von heimischen (deutschen) Anbietern und sind vorsichtig, ihre
Daten in der Cloud zu speichern, wobei sie lokalen Speicher auf dem Gerät selbst bevorzugen.
- Während Verbraucher sich Sorgen über die Datenerfassung machen, sind sie bereit, Daten zur Produktverbesserung zu teilen, aber nicht zu Umsatzsteigerungs- oder Marketingzwecken.
Mehr
Konopka, Björn; Wiesche, Manuel
LLMs for Intelligent Automation - Insights from a Systematic Literature Review Large Language Models (LLMs), Intelligent Process Automation (IPA), Intelligent Automation (IA), Cognitive Automation (CA), Tool Learning
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie führt eine systematische Literaturrecherche durch, um zu untersuchen, wie Large Language Models (LLMs) die intelligente Automatisierung (IA) vorantreiben können. Die Forschung analysiert bestehende wissenschaftliche Arbeiten, um die funktionellen Rollen von LLMs in der Automatisierung zu kategorisieren und identifiziert Schlüsselkompetenzen, aktuelle Anwendungen und signifikante Forschungslücken.
Problem:
Traditionelle Robotic Process Automation (RPA) ist in ihrer Fähigkeit, unstrukturierte Daten zu verarbeiten,
sich an veränderte Arbeitsabläufe anzupassen und komplexe Schlussfolgerungen zu ziehen, eingeschränkt. Während LLMs vielversprechend sind, um
diese Einschränkungen zu überwinden, gab es keine systematische Untersuchung, wie sie effektiv integriert werden können, um Intelligent Automation (IA) zu verbessern.
Ergebnisse:
- LLMs werden in der intelligenten Automatisierung hauptsächlich in drei unterschiedlichen Rollen eingesetzt: als spezialisierte „Tools“ zur Verarbeitung komplexer Eingaben, als Mittel „zur Erstellung von IA“, indem sie Automatisierungsworkflows aus natürlicher Sprache generieren, und als „Agenten“ zur dynamischen Navigation in Software und zur Entscheidungsfindung.
- Die Integration von LLMs macht die Automatisierung von Geschäftsprozessen erheblich flexibler und robuster, da sie es Systemen ermöglicht, komplexe Daten zu verarbeiten und sich an Änderungen von Softwareschnittstellen anzupassen, was eine große Schwäche der traditionellen RPA darstellt.
- Bei den aktuellen Ansätzen wurde eine entscheidende Forschungslücke identifiziert: das Fehlen von Systemen, die zur Laufzeit aus Feedback lernen können. Die meisten Implementierungen setzen LLMs als statische Modelle ein und verpassen damit eine Kernkomponente echter Intelligenz.
Mehr
Sonnabend, David Nathanael; Li, Mahei; Peters, Christoph
Immersive by Design: How Interactive VR Experiences Foster Consumer Choices Product presentation, VR, product presentation design, immersion, interactivity
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie schlägt einen Rahmen vor, um zu verstehen, wie Virtuelle Realität (VR) effektiv im Online-Handel eingesetzt werden kann. Sie untersucht, wie die wichtigsten VR-Merkmale Immersion und Interaktivität den psychologischen Zustand eines Kunden und seine endgültige Kaufabsicht für ein Produkt beeinflussen. Die Forschung skizziert eine experimentelle Methodik, um zu testen, wie sich unterschiedliche Grade dieser Merkmale auf das Konsumverhalten auswirken.
Problem:
Einzelhändler sehen großes Potenzial in der Nutzung von VR, um einzigartige und ansprechende Einkaufserlebnisse zu schaffen, doch ihr tatsächlicher Einsatz bleibt begrenzt. Es fehlt ein klares Verständnis dafür, wie VR-Produktpräsentationen am besten gestaltet werden können, um die Wahrnehmung der Verbraucher zuverlässig zu beeinflussen und den Umsatz zu steigern. Diese Studie schließt diese Lücke, indem sie die spezifischen psychologischen Mechanismen untersucht, die VR zu einem effektiven Verkaufsinstrument machen.
Ergebnisse:
Als 'Research in Progress'-Paper präsentiert diese Studie ein theoretisches Modell und Hypothesen anstelle von Endergebnissen. Die wichtigsten Vorschläge sind:
- Immersivere und interaktivere VR-Präsentationen werden das Kundenengagement, die Neugier (Anreiz) und das Vertrauen bei der Produktbewertung erhöhen.
- Es wird erwartet, dass die vollständige Interaktivität das Benutzerengagement maximiert, während eine strategische Einschränkung der Interaktion besser geeignet sein könnte, um die Neugier zu wecken.
- Es wird vorhergesagt, dass positive Veränderungen beim Engagement, bei der Neugier und beim Bewertungskomfort die Kaufabsicht eines Kunden für das Produkt direkt erhöhen werden.
Mehr
Weber, Sebastian; Palombo, Raphael; Wyszynski, Marc; Niehaves, Björn
Label Error Detection in Defect Classification using Area Under the Margin (AUM) Ranking on Tabular Data Label Error Detection, Automated Surface Inspection System (ASIS), Machine Learning, Gradient Boosting, Data-centric AI
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie stellt eine effiziente Methode zur Erkennung falsch gekennzeichneter Daten in industriellen Qualitätskontrollsystemen vor, insbesondere für die automatisierte Oberflächeninspektion in der Stahlproduktion. Die Forscher passten eine Technik namens Area Under the Margin (AUM) Ranking an die Arbeit mit gradientenverstärkten Entscheidungsbaummodellen an, einem gängigen Werkzeug zur Analyse tabellarischer Daten. Der Ansatz wurde anhand mehrerer Datensätze, einschließlich realer Industriedaten, validiert, um seine Fähigkeit zur Verbesserung der maschinellen Lern-Datenqualität zu demonstrieren.
Problem:
In der Fertigung werden maschinelle Lernsysteme zur automatischen Erkennung von Oberflächenfehlern eingesetzt, aber ihre Genauigkeit hängt stark von korrekt gelabelten Trainingsdaten ab. Fehler in diesen Daten, die durch menschliche Irrtümer oder uneindeutige Fehlertypen verursacht werden, können die Leistung und Zuverlässigkeit des Systems erheblich beeinträchtigen. Diese Studie befasst sich mit dem Mangel an effizienten, praktischen Methoden zur Identifizierung dieser Label-Fehler, insbesondere innerhalb der tabellarischen Datenformate, die üblicherweise in der industriellen Qualitätskontrolle verwendet werden.
Ergebnisse:
- Die vorgeschlagene Area Under the Margin (AUM)-Methode identifiziert effektiv falsch gelabelte Daten
in realen industriellen Datensätzen, wie denen aus der Stahlproduktion.
- Die Technik ist recheneffizient und erfordert nur einen einzigen Trainingslauf des maschinellen
Lernmodells, was sie schneller und praktischer macht als viele bestehende Alternativen.
- Ihre Leistung bei der Erkennung von Labelfehlern ist konkurrenzfähig mit komplexeren und rechenintensiveren
modernen Methoden.
- Der AUM-Score wurde erfolgreich in einen industriellen Qualitätskontroll-Workflow integriert, was den
manuellen Aufwand und die Zeit, die Experten für das Finden und Korrigieren von Datenfehlern benötigen,
signifikant reduziert.
- Die Bereinigung von Trainingsdaten durch Entfernen der durch die niedrigsten AUM-Scores identifizierten
Stichproben verbesserte die Gesamtgenauigkeit der Defektklassifizierungsmodelle.
Taking a Sociotechnical Perspective on Self-Sovereign Identity – A Systematic Literature Review self-sovereign identity, decentralized identity, blockchain
Podcast:
Link kopieren
Zusammenfassung:
Diese Arbeit bietet eine systematische Literaturübersicht zu Self-Sovereign Identity (SSI) und analysiert 78 wissenschaftliche Artikel, um zentrale Herausforderungen und Anforderungen aus einer soziotechnischen Perspektive zu identifizieren. Die Studie kartiert die aktuelle Forschungslandschaft und hebt den dominanten Fokus auf technische Aspekte und die Vernachlässigung sozialer Faktoren hervor. Ziel ist es zu verstehen, was für die erfolgreiche Implementierung und weitverbreitete Akzeptanz von SSI erforderlich ist.
Problem:
Mit zunehmender Nutzung von Internetdiensten verlieren Einzelpersonen die Kontrolle über ihre persönlichen Daten, die von großen Technologiekonzernen gesammelt und verwaltet werden. Self-Sovereign Identity (SSI) ist eine vorgeschlagene Lösung, um den Nutzern die Kontrolle zurückzugeben, doch die akademische Forschung hat die sozialen Herausforderungen bei ihrer Einführung, wie Nutzerakzeptanz und Benutzerfreundlichkeit, weitgehend übersehen und sich stattdessen fast ausschließlich auf technische Aspekte wie Sicherheit konzentriert.
Ergebnisse:
- Die akademische Forschung zu SSI konzentriert sich überwiegend auf technische Aspekte wie Sicherheit und Datenschutz, während entscheidende soziale Faktoren wie Nutzerakzeptanz, Vertrauen und Benutzerfreundlichkeit deutlich unterrepräsentiert sind.
- Viele SSI-Implementierungen stützen sich auf Blockchain-Technologie, die paradoxerweise Herausforderungen für Datenschutz und Skalierbarkeit mit sich bringt, zwei Kernanforderungen für ein erfolgreiches Identitätssystem.
- Die meiste Forschung behandelt SSI im Allgemeinen, mit einem Mangel an Studien, die sich auf spezifische Anwendungsbereiche wie das Gesundheitswesen oder die E-Government konzentrieren, wo einzigartige Anforderungen und Herausforderungen bestehen.
- Soziale Faktoren sind entscheidend für den Erfolg jeder SSI-Lösung, da die Akzeptanz stark von der Benutzererfahrung, dem Vertrauen in das System und der empfundenen Kontrolle abhängt.
- Die Studie identifiziert wichtige Anwendungsbereiche für SSI in den Bereichen E-Government, Finanzen, Gesundheitswesen, E-Commerce und dem Internet der Dinge (IoT).
Measuring AI Literacy of Future Knowledge Workers: A Mediated Model of AI Experience and AI Knowledge knowledge worker, AI literacy, digital intelligence, digital literacy, AI knowledge.
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, wie zukünftige Fachkräfte Kompetenzen im Umgang mit künstlicher Intelligenz (KI) entwickeln. Mittels einer Umfrage unter 352 Studierenden von Wirtschaftshochschulen untersuchten die Forscher, ob praktische KI-Erfahrung (sowohl in der Nutzung als auch im Design von Systemen) die KI-Kompetenz verbessert, indem sie zunächst eine solide Grundlage theoretischen KI-Wissens schafft.
Problem:
Da KI zu einem integralen Bestandteil moderner Arbeitsplätze wird, müssen Fachleute über eine „KI-Kompetenz“ verfügen, um diese Werkzeuge effektiv und verantwortungsvoll nutzen zu können. Organisationen und Pädagogen mangelt es jedoch an einem klaren Modell dafür, wie sich diese Fähigkeit tatsächlich entwickelt, und sie gehen oft davon aus, dass die einfache Nutzung ausreicht. Diese Forschung schließt diese Lücke, indem sie testet, ob strukturiertes Wissen ein notwendiger Zwischenschritt zwischen Erfahrung und echter Kompetenz ist.
Ergebnisse:
- Praktische Erfahrung ist am effektivsten, wenn sie das strukturierte Wissen einer Person über die Prinzipien, Prozesse und ethischen Überlegungen der KI aufbaut.
- Dieses grundlegende KI-Wissen ist die entscheidende Brücke, die praktische Erfahrung in praktische KI-Kompetenz (Alphabetisierung) umwandelt.
- Erfahrungen, die mit dem Entwurf oder der Konfiguration von KI-Systemen verbunden sind, selbst auf grundlegendem Niveau, haben einen stärkeren Einfluss auf die Entwicklung von KI-Alphabetisierung als die bloße Nutzung von KI-Werkzeugen.
- Für Unternehmen und Pädagogen muss effektives KI-Training praktische Anwendung mit formaler Bildung kombinieren, um eine solide Wissensbasis aufzubauen, anstatt sich nur auf die Werkzeugnutzung zu konzentrieren.
Mapping Digitalization in the Crafts Industry: A Systematic Literature Review crafts, digital transformation, digitalization, skilled trades, systematic literature review
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht den Stand der digitalen Transformation (DT) im Handwerk und stellt die gängige Wahrnehmung in Frage, dass es hinter anderen Sektoren zurückbleibt. Durch eine systematische Literaturrecherche von 141 akademischen und branchenspezifischen Quellen kartiert die Arbeit die Anwendung und den Einfluss spezifischer digitaler Technologien in verschiedenen Handwerksbereichen. Die Forschung kategorisiert diese Technologien, um ihre Auswirkungen auf Wertschöpfung, Wertangebot und Kundeninteraktion zu verstehen.
Problem:
Das Handwerk und die gewerblichen Betriebe werden oft als traditionell und langsam bei der Einführung neuer Technologien angesehen, was zu verpassten Geschäftsmöglichkeiten und einem Missverständnis ihres innovativen Potenzials führen kann. Es fehlt an detailliertem, branchenspezifischem Wissen darüber, wie verschiedene Handwerksbetriebe digitale Werkzeuge tatsächlich implementieren. Diese Studie schließt diese Lücke, indem sie die spezifischen Muster der digitalen Adoption klärt und Bereiche für zukünftiges Wachstum und Forschung identifiziert.
Ergebnisse:
Entgegen der landläufigen Meinung zeigt das Handwerk aktive und vielfältige Muster der Einführung digitaler Technologien, die sich je nach Branche erheblich unterscheiden.
Handwerksbetriebe sind nicht technologiefeindlich, sondern strategisch selektiv und übernehmen häufig Werkzeuge zur Steigerung von Effizienz und Produktion unter Beibehaltung zentraler handwerklicher Werte.
Der Schwerpunkt der Technologieeinführung liegt auf der „Wertschöpfung“ (Optimierung von Prozessen), wobei „Kundeninteraktion“ oder „Wertversprechen“ (Produktinnovation) weniger betont werden.
Branchen wie das Bauwesen und die Textilindustrie nutzen fortschrittliche Technologien wie KI, IoT und BIM, während sich traditionelle Handwerke stärker auf E-Commerce und soziale Medien für das Marketing konzentrieren.
Die Ergebnisse deuten darauf hin, dass ein Einheitsansatz für die digitale Transformation für das Handwerk unwirksam ist, und unterstreichen die Notwendigkeit von kontextspezifischen Strategien.
Mehr
Gantzer, Pauline Désirée; Umel, Audris Pulanco; Lattemann, Christoph
Typing Less, Saying More? – The Effects of Using Generative AI in Online Consumer Review Writing Online Review Writing, Informativeness, GenAI, Cognitive Load Theory
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, wie sich der Einsatz von Generativer KI (GenAI) auf die Qualität von Online-Kundenrezensionen auswirkt. In einem Online-Experiment verglichen Forscher Rezensionen, die mit einer Standardvorlage geschrieben wurden, mit solchen, die mit einer Vorlage geschrieben wurden, die GenAI integrierte, und maßen den Aufwand des Schreibers und die Informationsdichte der endgültigen Rezension.
Problem:
Das Schreiben detaillierter und hilfreicher Online-Bewertungen ist für Verbraucher eine geistig anspruchsvolle Aufgabe, die zu Feedback geringerer Qualität führen kann. Diese Forschung befasst sich damit, wie neue KI-Tools genutzt werden können, um diese Herausforderung zu bewältigen und den Gesamtnutzen nutzergenerierter Inhalte sowohl für Unternehmen als auch für andere Verbraucher zu verbessern.
Ergebnisse:
- Der Einsatz von generativer KI zur Unterstützung beim Verfassen von Rezensionen reduziert den mentalen Aufwand (kognitive Belastung) für den Verfasser erheblich.
- Mit KI erstellte Rezensionen sind informativer, da sie eine größere Anzahl spezifischer Aspekte und Themen zum Produkt oder zur Dienstleistung abdecken.
- KI-gestützte Rezensionen neigen zu einer positiveren Tonalität im Text, selbst wenn die zugehörige Sternebewertung der manuell verfassten Rezensionen ähnelt.
- Diese Rezensionen sind auch sprachlich komplexer, was sie für den durchschnittlichen Leser schwieriger verständlich machen könnte und trotz mehr Details ihren praktischen Wert einschränken kann.
Mehr
Habla, Maximilian
Are Digital Transformation Investments Paying Off? Evidence from the Consumer Staples Industry digital transformation, signaling theory, capital markets
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht die finanziellen Auswirkungen von Investitionen in die digitale Transformation (DT) in der europäischen Konsumgüterindustrie. Unter Verwendung einer ereignisbezogenen Studie für kurzfristige Effekte und einer Paneldatenanalyse für mittelfristige Ergebnisse unterscheidet die Forschung zwischen der Marktreaktion auf einzelne DT-Ankündigungen und dem Wert nachhaltiger digitaler Reife. Ziel ist es, strategische Einblicke zu geben, wie Unternehmen DT-Investitionen priorisieren können, um einen Wettbewerbsvorteil zu erzielen.
Problem:
Unternehmen investieren stark in die digitale Transformation, doch oft ist unklar, ob diese teuren Initiativen einen spürbaren finanziellen Ertrag bringen. Führungskräfte tun sich schwer, Investitionen mit verzögerten oder immateriellen Vorteilen zu rechtfertigen, und es ist unbekannt, ob der Markt einmalige Projekte oder ein langfristiges strategisches Engagement honoriert. Diese Studie schließt diese Lücke, indem sie untersucht, welche Art von DT-Investitionsstrategie sich tatsächlich an den Finanzmärkten auszahlt.
Ergebnisse:
- Einzelne Ankündigungen von Investitionen in die digitale Transformation führen nicht zu signifikant positiven kurzfristigen Aktienrenditen für ein Unternehmen.
- Nachhaltige, langfristige digitale Reife ist im mittleren Zeitraum stark mit höheren Unternehmensbewertungen (Kurs-Buchwert-Verhältnis) korreliert.
- Unternehmen mit höherer digitaler Reife profitieren von niedrigeren Kapitalkosten, da sie sowohl von Eigenkapitalinvestoren als auch von Fremdkapitalgebern als weniger risikoreich wahrgenommen werden.
- Die finanziellen Erträge der digitalen Transformation ergeben sich aus einer konsistenten, kumulativen Strategie und nicht aus isolierten, einzelnen Projekten.
- Ein langfristiges Engagement für digitale Fähigkeiten signalisiert dem Markt einen nachhaltigen Wettbewerbsvorteil, was zu spürbaren finanziellen Vorteilen führt.
Mehr
Breitruck, Maximilian; Gnos, Basil
Unveiling the Influence of Personality, Identity, and Organizational Culture on Generative AI Adoption in the Workplace Generative AI, Personality Traits, AI Identity, Organizational Culture, AI Adoption
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, wie Persönlichkeitsmerkmale, Identitätsgefühl der Mitarbeiter und Organisationskultur die Akzeptanz und Nutzung von generativer KI (GenKI) am Arbeitsplatz beeinflussen. Basierend auf 23 Experteninterviews identifiziert die Forschung wichtige Verhaltensmuster und schlägt einen Rahmen für das Verständnis unterschiedlicher Mitarbeiterreaktionen auf GenKI vor. Die Analyse deckt vier verschiedene KI-Nutzungs-Archetypen auf und hebt das komplexe Zusammenspiel zwischen individueller Psychologie und Unternehmensumfeld hervor.
Problem:
Da Organisationen generative KI schnell integrieren, beobachten sie eine breite Palette von Mitarbeiterreaktionen, von transparenter Akzeptanz bis hin zur strategischen Verschleierung. Diese Inkonsistenz schafft Herausforderungen bei der Bewältigung von Sicherheitsrisiken, der Gewährleistung ethischer Nutzung und der Entwicklung effektiver Schulungsprogramme. Diese Studie schließt die Lücke im Verständnis der persönlichen und kulturellen Treiber dafür, warum Mitarbeiter KI offen nutzen, verbergen oder sich dagegen wehren.
Ergebnisse:
- Die Studie identifizierte vier unterschiedliche Mitarbeitertypen im Hinblick auf die KI-Nutzung: „Innovative Pioniere“
(offen für KI und identifizieren sich damit), „Versteckte Nutzer“
(identifizieren sich mit KI, verbergen aber deren Nutzung), „Transparente Nutzer“
(nutzen KI offen als Werkzeug) und „Kritische Skeptiker“
(vorsichtig und vermeidend).
- Individuelle Persönlichkeitsmerkmale, insbesondere negative wie Narzissmus, können Mitarbeiter dazu veranlassen, ihre KI-Nutzung zu verbergen, um sich einen Wettbewerbsvorteil zu verschaffen oder einen falschen Eindruck von Expertise zu erwecken.
- Die Organisationskultur ist entscheidend; offene und innovative Umgebungen fördern die transparente KI-Adaption, während starre, hierarchische oder stark wettbewerbsorientierte Kulturen die Verheimlichung begünstigen.
- Versteckte KI-Nutzung oder „Schatten-KI“ birgt erhebliche Risiken, darunter Verstöße gegen den Datenschutz, Sicherheitslücken und die Entwicklung von verborgenen Qualifikationslücken in der Belegschaft.
- Unternehmen sollten unterstützende Kulturen mit klaren ethischen Richtlinien und gezielten Schulungen fördern, um eine verantwortungsvolle KI-Integration zu fördern und potenzielle Risiken zu mindern.
Mehr
Xhigoli, Dugaxhin
Structural Estimation of Auction Data through Equilibrium Learning and Optimal Transport Structural Estimation, Auctions, Equilibrium Learning
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie stellt eine fortschrittliche Methode zur Analyse von Auktionsdaten vor, um die wahren Bewertungen von Bietern zu verstehen. Sie erweitert einen klassischen Rahmen, indem sie traditionelle statistische Schätzer durch einen neuartigen Ansatz ersetzt, der Optimaltransporttheorie und Gleichgewichtslernen kombiniert. Diese neue Technik zielt darauf ab, genauere und robustere Schätzungen des Bieterverhaltens aus beobachteten Geboten zu liefern.
Problem:
Auktionsdesigner müssen die privaten Bewertungen der Bieter verstehen, um optimale Regeln wie Mindestpreise festzulegen und den Umsatz zu maximieren. Diese Information ist jedoch verborgen, und bestehende statistische Methoden, die verwendet werden, um sie aus Gebotsdaten abzuleiten, sind oft unzuverlässig, insbesondere bei begrenzten Daten, was zu verzerrten Schätzungen und schlechten strategischen Entscheidungen führt.
Ergebnisse:
- Die vorgeschlagene Methode, die auf optimalem Transport basiert, schätzt die privaten Bewertungen von Bietern aus Auktionsdaten genauer als traditionelle Techniken.
- Diese überlegene Genauigkeit führt zu besseren Geschäftsentscheidungen, wie z. B. der Festlegung optimaler Reservepreise, die die Einnahmen eines Auktionators erheblich steigern können, während ältere Methoden in den Experimenten versagten.
- Der neue Rahmen ist robuster und flexibler und erzielt auch mit begrenzten oder stark variierenden Daten gute Ergebnisse, was ihn für das reale Auktionsdesign praktischer macht.
Mehr
Ewert, Markus; Bichler, Martin
A Case Study on Large Vehicles Scheduling for Railway Infrastructure Maintenance: Modelling and Sensitivity Analysis Railway Track Maintenance Planning, Maintenance Track Possession Problem, Operations Research, Mixed Integer Programming
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie analysiert die Einsatzplanung von großen Instandhaltungsfahrzeugen für das deutsche Schienennetz, unter Verwendung realer Daten der Deutschen Bahn. Sie setzt Optimierungsmodelle ein, darunter eine Greedy-Heuristik und Mixed Integer Programming (MIP), um zu bewerten, wie Faktoren wie Flottengröße und Einsatzflexibilität die Instandhaltungseffizienz beeinflussen.
Problem:
Eisenbahninstandhaltung ist unerlässlich, verursacht aber häufig erhebliche Störungen, Verspätungen und Kapazitätsreduzierungen sowohl für den Personen- als auch für den Güterverkehr. Diese Ineffizienz verringert die Zuverlässigkeit und Attraktivität des Schienensystems und schafft die Notwendigkeit einer besseren Planung und Ressourcenallokation, um Serviceunterbrechungen zu minimieren.
Ergebnisse:
- Organisatorische Flexibilität ist entscheidender als die Flottengröße; das bloße Hinzufügen weiterer Wartungsfahrzeuge bietet wenig bis keinen Vorteil bei der Erledigung von Wartungsaufgaben.
- Der primäre Engpass ist die Verfügbarkeit vordefinierter Wartungszeitfenster ('Container').
Die mehrmalige Wiederverwendung dieser Zeitfenster kann die Aufgabenerfüllung auf nahezu 100 % steigern.
- Die Erhöhung der Reichweite von Fahrzeugen von ihren Depots und die Verlängerung von Schichtlängen können die Ergebnisse verbessern, aber die Vorteile sind weniger signifikant und gehen mit praktischen Kompromissen wie erhöhten Arbeitskosten einher.
- Die Optimierung der Größe und Wiederverwendbarkeit von Wartungsfenstern ist eine kostengünstigere Strategie zur Verbesserung der Effizienz der Eisenbahnwartung als die Investition in mehr physische Vermögenswerte.
Boundary Resources – A Review Boundary Resource, Platform, Complementor, Research Agenda, Literature Review
Podcast:
Link kopieren
Zusammenfassung:
Diese Arbeit unternimmt eine umfassende Überprüfung der bestehenden Forschung zu „Grenzressourcen“ – den Werkzeugen wie APIs und SDKs, die digitale Plattformen mit Drittentwicklern verbinden. Durch die Analyse von 89 akademischen Publikationen kartiert die Studie den aktuellen Wissensstand, identifiziert signifikante Lücken und schlägt eine klare Agenda für zukünftige Forschung vor.
Problem:
Digitale Plattformen sind zentral für das moderne Geschäft, aber wie sie Innovationen von Drittanbietern managen, wird wenig verstanden. Diese Studie adressiert zentrale Wissenslücken, darunter die mangelnde Klarheit über die finanziellen Auswirkungen der Öffnung einer Plattform, eine übermäßige Betonung von verbraucherorientierten Plattformen (B2C) bei gleichzeitiger Ignorierung von Business-to-Business- (B2B-) Kontexten und die aufkommende Rolle von KI als Entwickler.
Ergebnisse:
- Plattformstrategien sind fragmentiert; Unternehmen konzentrieren sich auf die Nutzung von Grenzressourcen für Kontrolle und Co-Innovation, aber oft entgeht ihnen deren direkter finanzieller und strategischer Wert.
- Die meiste Forschung konzentriert sich auf Konsumentenplattformen (wie App-Stores), was bedeutet, dass die Ergebnisse möglicherweise nicht auf Business-to-Business (B2B)-Ökosysteme anwendbar sind, die anders funktionieren.
- Es fehlt kritisch an einer klaren Definition dessen, was eine „Plattform“ von anderer Software unterscheidet, was strategische Entscheidungen über Offenheit und Kontrolle erschwert.
- Der Aufstieg von KI und Automatisierung verändert, wer oder was auf Plattformen aufbaut, und erfordert neue Governance-Modelle zur Verwaltung von menschlichen und maschinellen Entwicklern (Komplementären).
Mehr
Rochholz, David
You Only Lose Once: Blockchain Gambling Platforms gambling platform, smart contract, gambling behavior, cognitive bias, user behavior
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie analysiert das Nutzerverhalten auf einer Blockchain-basierten Glücksspielplattform namens YOLO, die als Smart Contract implementiert ist. Durch die Untersuchung von über 22.800 Glücksspielrunden von 3.306 einzigartigen Nutzern werden statistische Modelle verwendet, um zu verstehen, wie kognitive Verzerrungen die Glücksgewohnheiten in einer dezentralen Umgebung beeinflussen. Ziel ist es, Erkenntnisse für Regulierungsbehörden und Initiativen zum Schutz der Nutzer zu liefern.
Problem:
Traditionelle Online-Glücksspielplattformen stellen gesellschaftliche Risiken dar und entziehen sich häufig der regulatorischen Aufsicht. Der Aufstieg dezentraler, Blockchain-basierter Glücksspielplattformen verschärft diese Probleme, da sie ohne Zwischenhändler operieren, was die Durchsetzung von Nutzerschutz und rechtlicher Konformität äußerst schwierig macht. Diese Studie befasst sich mit dem mangelnden Verständnis des Nutzerverhaltens und den einzigartigen Risiken, die mit diesen neuen Plattformen verbunden sind.
Ergebnisse:
- Kognitive Verzerrungen, wie der „Anker-Effekt“ und der „Spielerfehlschluss“, beeinflussen Nutzer stark, weiterhin zu spielen, was oft zu finanziellen Verlustzyklen führt.
- Die Studie ergab, dass Nutzer, die wiederholt den gleichen Betrag setzen (Ankern) oder ihre Einsätze nach Verlustserien erhöhen, eher weiterspielen.
- Die dezentrale und pseudonyme Natur von Blockchain-Glücksspielen macht es fast unmöglich, Standardmaßnahmen für verantwortungsbewusstes Spielen wie Einzahlungslimits, Altersverifizierung oder Selbstausschluss-Tools zu implementieren.
- Die Ergebnisse unterstreichen die dringende Notwendigkeit neuer Regulierungsrahmen, die auf dezentrale Plattformen zugeschnitten sind, wie z. B. On-Chain-Überwachung zur Erkennung von riskantem Verhalten und die Möglichkeit, Glücksspiel-Smart Contracts auf eine schwarze Liste zu setzen.
Mehr
Baum, Lorenz; Güler, Arda; Hanneke, Björn
The Role of Generative AI in P2P Rental Platforms: Investigating the Effects of Timing and Interactivity on User Reliance in Content (Co-)Creation Processes Human-genAI Collaboration, Co-Writing, P2P rental Platforms, Reliance
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, wie generative KI (genAI)-Tools am besten auf Peer-to-Peer (P2P)-Mietplattformen wie Airbnb integriert werden können, um Benutzern beim Verfassen von Immobilienanzeigen zu helfen. Mithilfe eines kontrollierten Experiments mit 244 Teilnehmern testeten Forscher, wie der Zeitpunkt (vor, während oder nach dem Verfassen) und die Interaktivität (automatisch vs. benutzergesteuert) von KI-Vorschlägen die Abhängigkeit der Benutzer von der Technologie beeinflussen.
Problem:
P2P-Vermietungsplattformen sind auf einzigartige, von Gastgebern verfasste Beschreibungen angewiesen, um Kunden anzuziehen, doch die Erstellung dieser Inhalte kann für Gastgeber zeitaufwändig sein. Während generative KI eine Lösung zur Optimierung der Inhaltserstellung bietet, gibt es wenig Anleitung, wie diese KI-Assistenten so gestaltet werden können, dass sie die Nutzerakzeptanz maximieren und sicherstellen, dass sie wirklich hilfreich sind.
Ergebnisse:
- Die frühe Bereitstellung von KI-Schreibunterstützung im Prozess der Inhaltserstellung erhöht die Wahrscheinlichkeit, dass Benutzer sie nutzen, erheblich.
- Benutzer werden KI-Vorschläge eher nicht annehmen, wenn diese eingeführt werden, nachdem sie bereits Aufwand in das Schreiben ihrer eigenen Beschreibung investiert haben.
- Wenn Benutzer die KI aktiv nach Vorschlägen fragen können, hat dies einen geringen, aber positiven Einfluss auf ihre Nutzung im Vergleich zum Erhalt automatischer Vorschläge.
- Wenn Benutzer sich von einer Aufgabe mental überfordert fühlen, vertrauen und nutzen sie KI-generierte Vorschläge weniger wahrscheinlich.
- Um die Akzeptanz zu maximieren, sollten Plattformen KI-Schreibwerkzeuge integrieren, die Benutzer ganz am Anfang des Listungsprozesses einbeziehen.
Mehr
Spatscheck, Niko; Schaschek, Myriam; Tomitza, Christoph; Winkelmann, Axel
A Framework for Context-Specific Theorizing on Trust and Reliance in Collaborative Human-AI Decision-Making Environments AI Systems, Trust, Reliance, Collaborative Decision-Making
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie analysiert, warum Forschung zum menschlichen Vertrauen in KI widersprüchliche Ergebnisse liefert, die sowohl zu Über- als auch zu Untervertrauen führen. Durch eine systematische Literaturübersicht von 59 empirischen Studien entwickelt die Arbeit einen neuen Rahmen, um diese Inkonsistenzen zu erklären. Der Rahmen betont, dass der spezifische Kontext, in dem eine Entscheidung getroffen wird, entscheidend dafür ist zu verstehen, wie Menschen KI-Systemen vertrauen und sich auf sie verlassen.
Problem:
Damit Menschen und KI effektiv bei komplexen Entscheidungen zusammenarbeiten können, müssen Menschen ein angemessenes Vertrauen in die KI haben. Oft unterschätzen die Menschen jedoch die Fähigkeiten der KI, was entweder zu einer blinden Überbewertung fehlerhafter Ratschläge oder zur Ablehnung korrekter Ratschläge führt. Diese Forschung befasst sich mit der Lücke im Verständnis, warum dies geschieht, indem sie zeigt, dass frühere Studien oft wichtige kontextbezogene Faktoren übersehen haben, die sich auf den menschlichen Benutzer, das KI-System und die Entscheidung selbst beziehen.
Ergebnisse:
- Vertrauen in KI ist nicht statisch, sondern wird stark vom spezifischen Kontext der Interaktion geprägt.
- Zu den wichtigsten KI-bezogenen Faktoren, die das Vertrauen beeinflussen, gehören Leistung, Erklärbarkeit, Anpassungsfähigkeit und wie menschenähnlich sie erscheint.
- Zu den wichtigsten entscheidungsbezogenen Faktoren gehören das Risikoniveau, die Komplexität, die Moralität und die Objektivität der Aufgabe.
- Zu den wichtigsten menschenbezogenen Faktoren gehören die Expertise des Benutzers, die Vertrautheit mit KI, kognitive Verzerrungen und das Gefühl der Kontrolle über die Entscheidung.
- Durch die gemeinsame Berücksichtigung dieser Faktoren können Unternehmen das Vertrauen der Benutzer besser vorhersagen und steuern, um die Ergebnisse der menschlich-KI-Zusammenarbeit zu verbessern.
Mehr
Spatscheck, Niko
“We don’t need it” - Insights into Blockchain Adoption in the German Pig Value Chain blockchain adoption, TOE, food supply chain
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht die Gründe für die geringe Akzeptanz von Blockchain-Technologie in der deutschen Schweinefleischwertschöpfungskette, trotz ihrer weithin anerkannten potenziellen Vorteile für Lebensmittelversorgungsketten. Durch semi-strukturierte Interviews mit acht Branchenexperten identifiziert die Forschung die Schlüsselfaktoren, die die Implementierung von Blockchain in der Praxis verhindern.
Problem:
Blockchain-Technologie wird oft als Lösung zur Verbesserung von Transparenz, Rückverfolgbarkeit und Vertrauen in Lebensmittel-Lieferketten dargestellt. Es gibt jedoch eine erhebliche Lücke zwischen den wahrgenommenen Vorteilen der Technologie und ihrer tatsächlichen Akzeptanz, wie sie in der deutschen Schweineindustrie, einem wichtigen Akteur auf dem europäischen Markt, zu beobachten ist. Diese Studie untersucht, warum diese vielversprechende Technologie in der Praxis nicht umgesetzt wird.
Ergebnisse:
- Stakeholder glauben, dass ihre aktuellen Systeme für Datenaustausch und -management ausreichend sind und sehen keinen wesentlichen zusätzlichen Nutzen in der Implementierung von Blockchain.
- Vertrauen, ein wichtiges Merkmal, das Blockchain bietet, ist bereits durch langjährige Geschäftsbeziehungen und organisatorische Eigentümerstrukturen in der Branche etabliert, wodurch der vertrauensbildende Aspekt der Technologie überflüssig wird.
- Es gibt keine starke Marktnachfrage aus der Wertschöpfungskette oder von Endverbrauchern nach den spezifischen Merkmalen, die Blockchain bietet, wie z. B. erhöhte Rückverfolgbarkeit oder Unveränderlichkeit.
- Signifikante Hindernisse, einschließlich hoher Investitionskosten, fehlender finanzieller Spielräume und fehlender digitaler Infrastruktur, überwiegen die potenziellen Vorteile der Technologie.
- Die Entscheidung, keine Blockchain einzuführen, ist eine rationale Wahl, die auf einer Kosten-Nutzen-Analyse basiert, bei der bestehende Lösungen und Vertrauensmechanismen für die aktuellen Bedürfnisse als angemessen erachtet werden.
Are Narratives a success factor for Digital Transformation? A Qualitative Study on the Importance of Narratives Digital Transformation, Automation, Human-centric, Human Friendly Automation, Narrative
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, wie Organisationen Storytelling oder Narrative einsetzen, um den Erfolg ihrer digitalen Transformationsbemühungen zu verbessern. Durch eine Reihe von Experteninterviews analysiert die Forschung die Schlüsselfunktionen und Merkmale effektiver Narrative im Management der menschlichen Seite des technologischen Wandels.
Problem:
Viele digitale Transformationsinitiativen scheitern an menschenbezogenen Faktoren, insbesondere am Widerstand von Stakeholdern. Während Narrative oft genutzt werden, um diese Bemühungen zu gestalten, fehlt es sowohl bei Forschern als auch bei Praktikern an Verständnis dafür, wie sie effektiv eingesetzt werden können, um Risiken zu mindern und erfolgreiche Ergebnisse zu gewährleisten.
Ergebnisse:
- Erzählungen erfüllen eine wichtige motivationale und transformative Funktion, indem sie Menschen helfen, Veränderungen zu verstehen und Transformationsbemühungen einen Sinn zu geben.
- Gut gestaltete Erzählungen können den Widerstand von Stakeholdern verringern und Mitarbeiter aktiv in den Transformationsprozess einbinden.
- Der Kontext und spezifische „Randbedingungen“ sind wichtig für den Erfolg einer Erzählung.
- Eine übergeordnete Erzählung ist unerlässlich für die Definition und Steuerung digitaler Transformationsinitiativen, insbesondere solcher, die KI betreffen.
Mehr
Grauer, Teresa; Li, Mahei
Algorithmic Control in Non-Platform Organizations – Workers’ Legitimacy Judgments and the Impact of Individual Character Traits Algorithmic Control, Legitimacy Judgments, Non-Platform Organizations, fsQCA
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, wie Beschäftigte in traditionellen, nicht plattformbasierten Organisationen algorithmische Kontrollsysteme (AC) wahrnehmen, die ihre Aufgaben verwalten. Anhand einer vergleichenden Analyse von 92 Logistikmitarbeitern untersucht die Forschung, wie individuelle Charaktereigenschaften, insbesondere Wettbewerbsorientierung, beeinflussen, ob Arbeitnehmer AC im Hinblick auf Fairness, Autonomie und Kompetenzentwicklung als legitim betrachten.
Problem:
Da traditionelle Unternehmen zunehmend Algorithmen zur Mitarbeiterführung einsetzen, fehlt ihnen das Verständnis dafür, wie verschiedene Arten von Arbeitnehmern diese Systeme wahrnehmen werden. Diese Wissenslücke ist kritisch, da ein System, das einen Mitarbeiter motiviert, von einem anderen abgelehnt werden könnte, was sich auf die Produktivität, die Moral und den Gesamterfolg der technologischen Implementierung auswirkt.
Ergebnisse:
- Mitarbeiterpersönlichkeit ist ein Hauptfaktor für die Akzeptanz algorithmischen Managements; hochgradig
wettbewerbsorientierte Arbeitnehmer sehen es weitaus positiver als ihre nicht wettbewerbsorientierten Kollegen.
- Wettbewerbsorientierte Mitarbeiter betrachten algorithmische Bewertungen und Empfehlungen als fair und vorteilhaft für ihre
berufliche Entwicklung und sehen sie als Werkzeug zur Leistungsmaximierung.
- Nicht wettbewerbsorientierte Mitarbeiter neigen dazu, die meisten Formen algorithmischer Kontrolle abzulehnen, da sie diese als unfair
und schädlich für ihr Kompetenzwachstum empfinden.
- Ein "Einheitsansatz" für algorithmisches Management ist ineffektiv; Unternehmen müssen
flexible Systeme entwickeln, die unterschiedlichen Arbeitnehmerpersönlichkeiten Rechnung tragen, oder riskieren, Teile ihrer
Belegschaft zu verprellen.
- Ohne Berücksichtigung der Persönlichkeit riskieren Unternehmen, nicht wettbewerbsorientierte Mitarbeiter zu demotivieren, was zu Widerstand, geringerem Engagement und höherer Fluktuation führen kann.
Mehr
Hirsch, Felix
Design Guidelines for Effective Digital Business Simulation Games: Insights from a Systematic Literature Review on Training Outcomes Digital business simulation games, training effectiveness, design guidelines, literature review
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie überprüft systematisch 64 empirische Arbeiten, die zwischen 2014 und 2024 veröffentlicht wurden, um zu verstehen, was digitale Business-Simulationsspiele (DBSGs) zu effektiven Trainingswerkzeugen macht. Die Forschung identifiziert vier Haupttypen von Trainingsergebnissen: einstellungsbezogen, motivationsbezogen, verhaltensbezogen und kognitiv. Basierend auf diesen Erkenntnissen entwickelt die Arbeit einen praktischen Rahmen für Gestaltungsrichtlinien zur Erstellung und Implementierung wirkungsvoller Business-Simulationen.
Problem:
Unternehmen und Universitäten nutzen zunehmend digitale Business-Simulationen, um komplexe Entscheidungsfindung in einer risikofreien Umgebung zu vermitteln. Die Forschung zur Wirksamkeit ist jedoch fragmentiert, und es mangelt an klaren, evidenzbasierten Richtlinien, was zu inkonsistenten Trainingsergebnissen und einer Unfähigkeit führt, die Wirkung dieser leistungsstarken Lernwerkzeuge zu maximieren.
Ergebnisse:
- Um die Benutzerzufriedenheit zu verbessern, gestalten Sie Spiele mit realistischen Geschäftsszenarien, qualitativ hochwertigen In-Game-Informationen und immersiven visuellen und interaktiven Elementen.
- Steigern Sie die Motivation der Auszubildenden durch überzeugende Handlungsstränge, eine fortschreitend zunehmende Entscheidungs-komplexität und die Hinzufügung von Wettbewerbselementen wie Bestenlisten.
- Verbessern Sie kritische Fähigkeiten wie Teamwork und Problemlösung durch die Gestaltung von Spielen, die die Interaktion und Zusammenarbeit der Teilnehmer aktiv fördern.
- Maximieren Sie das Lernen, indem Sie den Schwierigkeitsgrad des Spiels an die Fähigkeiten der Teilnehmer anpassen und durch Berichte, Hinweise und Tutorials kontinuierliches Feedback geben.
- Eine erfolgreiche Implementierung erfordert gut ausgebildete Ausbilder, klare Vorab-Briefings zur Festlegung von Erwartungen und geführte Debriefing-Sitzungen, um die Simulationserfahrung mit realen Anwendungen zu verknüpfen.
Mehr
Pflumm, Manuel Thomas; Böttcher, Timo Phillip; Krcmar, Helmut
Developing Multi-Agent Systems to Address AI Explainability Issues: The Case of Online Hate Speech Detection Hate Speech, Explainable AI, Multi-Agent Systems, Multimodality
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie beschreibt die Entwicklung eines KI-Systems zur Erkennung von Online-Hassreden, insbesondere in
multimodalen Formaten wie Memes. Das System verwendet einen neuartigen Ansatz, bei dem mehrere spezialisierte KI-
„Agenten“ eine gerichtsähnliche Debatte führen, um Inhalte zu klassifizieren. Diese Methode soll den
Entscheidungsfindungsprozess der KI transparent und verständlich machen und einen „Human-in-the-Loop“ für
Benutzeraufsicht und Verfeinerung integrieren.
Problem:
Online-Hassreden sind ein weit verbreitetes Problem, aber automatisierte KI-Erkennungssysteme sind oft wie
„Black Boxes“, was es schwierig macht zu verstehen, warum sie bestimmte Entscheidungen treffen. Dieser Mangel an
Transparenz untergräbt das Vertrauen und erschwert die Fehleranalyse, was ein erhebliches Hindernis für die
Nutzung durch Social-Media-Unternehmen und Juristen darstellt, die klare Begründungen für die Inhaltsmoderation
benötigen.
Ergebnisse:
- Das vorgeschlagene Multi-Agenten-System (MAS) erreichte eine Genauigkeit von 70 % bei der Erkennung von hasserfüllten Memes und übertraf damit ein Standard-KI-Modell mit einem Agenten in allen getesteten Metriken.
- Das einzigartige diskussionsbasierte Framework des Systems verbessert die Erklärbarkeit erfolgreich und ermöglicht es Benutzern, die Argumentation hinter einer Klassifizierung nachzuvollziehen.
- Durch die Auslagerung der Entscheidungslogik in eine strukturierte Debatte zwischen Agenten liefert das Modell transparente und überprüfbare Einblicke für Moderatoren und Rechtsexperten.
- Die Einbeziehung eines Human-in-the-Loop-Workflows ermöglicht es Benutzern, die Regeln des Systems zu überprüfen, zu verfeinern und anzupassen, was die Zuverlässigkeit und das Vertrauen erhöht.
Mehr
Riekers, Nils; Risius, Marten; Chen, Tong
Designing Speech-Based Assistance Systems: The Automation of Minute-Taking in Meetings Automation, speech, digital assistants, design science.
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht das Design von sprachbasierten Assistenzsystemen (SBAS) zur Automatisierung der Protokollführung bei Besprechungen. Forscher entwickelten und evaluierten einen Prototyp mit verschiedenen Automatisierungsgraden, um zu verstehen, wie die Vorteile der Effizienz mit potenziellen Nachteilen für den Benutzer abgewogen werden können.
Problem:
Während KI-Werkzeuge, die Aufgaben wie das Erstellen von Besprechungsprotokollen automatisieren, erhebliche wirtschaftliche Vorteile und Effizienzsteigerungen bieten können, können sie auch negative Folgen haben. Hohe Automatisierungsgrade bergen das Risiko, die Mitarbeiterzufriedenheit, ihr Berufsbild und ihre Identifikation mit ihrer Arbeit zu verringern.
Ergebnisse:
- Eine höhere Automatisierung verbessert erfolgreich die Erfassung und Verarbeitung von Informationen aus Besprechungen und reduziert den kognitiven Aufwand des Benutzers.
- Hohe Automatisierung kann jedoch die Benutzerzufriedenheit und das Gefühl der Eigenverantwortung für die Endarbeit verringern. Benutzer berichteten von größerer Zufriedenheit mit teilautomatisierten Systemen, bei denen sie stärker eingebunden blieben.
- Stark automatisierte Systeme können zu kognitiver Selbstzufriedenheit führen, bei der Benutzer systemgenerierte Inhalte ohne ordnungsgemäße Überprüfung akzeptieren, was das Risiko von Fehlern oder die Aufnahme irrelevanter Informationen erhöht.
- Um wirksam zu sein, sollten Unterstützungssysteme so konzipiert sein, dass sie die menschliche Arbeit ergänzen und nicht nur ersetzen. Der Schlüssel liegt darin, die Automatisierung mit Funktionen auszubalancieren, die eine sinnvolle Benutzerintegration und -aufsicht gewährleisten.
Mehr
Koslow, Anton; Berger, Benedikt
Unveiling Location-Specific Price Drivers: A Two-Stage Cluster Analysis for Interpretable House Price Predictions HousePricing, Cluster Analysis, Interpretable Machine Learning, Location-Specific Predictions
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie stellt eine neuartige zweistufige Cluster-Methode vor, um die Genauigkeit und Interpretierbarkeit von Immobilienpreisvorhersagen zu verbessern. Der Ansatz gruppiert zunächst deutsche Immobilien nach Standort und segmentiert sie dann weiter nach Immobilieneigenschaften, wobei auf jeden resultierenden Cluster interpretierbare Machine-Learning-Modelle angewendet werden. Die Methodik wird an einem Datensatz von über 43.000 deutschen Immobilienangeboten aus dem Jahr 2023 getestet.
Problem:
Die genaue Vorhersage von Hauspreisen ist aufgrund erheblicher Schwankungen auf lokalen Märkten eine Herausforderung. Aktuelle Bewertungsmethoden erzwingen einen Kompromiss zwischen einfachen, transparenten Modellen, die oft ungenau sind, und komplexen "Black-Box"-Modellen, die zwar genau sind, aber an Erklärbarkeit mangelt. Diese Studie adressiert den Bedarf an einer Methode, die sowohl hochpräzise als auch leicht verständlich für die praktische Anwendung ist.
Ergebnisse:
- Der zweistufige Clustering-Ansatz verbessert die Genauigkeit der Vorhersage von Hauspreisen dramatisch und reduziert den mittleren absoluten Fehler im Vergleich zu Modellen ohne Clustering um bis zu 58 % für die lineare Regression und 36 % für verallgemeinerte additive Modelle (GAMs).
- Das Modell zeigt, dass der Einfluss von Immobilieneigenschaften wie Baujahr und Wohnfläche je nach Marktsegment (Cluster) erheblich variiert.
- Diese Methode liefert interpretierbare, umsetzbare Erkenntnisse über lokale Preistreiber und bietet damit klare Vorteile gegenüber undurchsichtigen „Black-Box“-Modellen.
- Die Ergebnisse bestätigen, dass der geografische Standort der kritischste Faktor bei der Bestimmung von Immobilienwerten ist, was seine Verwendung als ersten Schritt zur Marktsegmentierung rechtfertigt.
IT-Based Self-Monitoring for Women’s Physical Activity: A Self-Determination Theory Perspective ITSM, Self-Determination Theory, Physical Activity, User Engagement
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht die Schlüsselfaktoren, die das Engagement von Frauen mit digitalen Fitness-Apps vorantreiben, indem sie über 34.000 Nutzerbewertungen analysiert. Mithilfe von computational topic modeling ordnet die Forschung Nutzerbedenken den Kernbedürfnissen der Selbstbestimmungstheorie – Autonomie, Kompetenz und Verbundenheit – zu, um einen Rahmen für die Entwicklung effektiverer Fitnesstechnologien zu schaffen.
Problem:
Viele digitale Fitness-Apps schaffen es nicht, langfristig Nutzer zu binden, da es ihnen oft an einem
theoretischen Fundament mangelt und sie einen „Einheitsansatz“ verfolgen. Diese Forschung befasst sich mit dem spezifischen
Bedürfnis, die psychologischen Treiber bei Frauen zu verstehen, die durchweg weniger körperlich aktiv sind
als Männer, um motivierendere und effektivere Gesundheitslösungen zu schaffen.
Ergebnisse:
- Autonomie ist der kritischste Faktor für Frauen bei der Nutzung von Fitness-Apps; Nutzer wünschen sich Kontrolle, Flexibilität
und Personalisierung, wie z. B. anpassbare Pläne und Trainings, die an verschiedene Umgebungen angepasst werden können.
- Kompetenz ist der zweitwichtigste Treiber, wobei Nutzer Apps suchen, die nicht nur den Fortschritt verfolgen,
sondern auch strukturiertes Feedback geben und ihnen helfen, neue Fähigkeiten zu entwickeln.
- Soziale Verbundenheit (Zugehörigkeit) ist ebenfalls wichtig, da Nutzer unterstützende Coaches,
Austausch in der Community und nachvollziehbare Inhalte von digitalen Influencern schätzen, insbesondere im Hinblick auf
mütterliche Gesundheit.
Mehr
Aborobb, Asma Ghazi; Uebernickel, Falk; de Paula, Danielly
Fostering active student engagement in flipped classroom teaching with social normative feedback Flipped Classroom, Social Normative Feedback, Learning Analytics, Self-Regulated Learning, Digital Interventions
Podcast:
Link kopieren
Zusammenfassung:
Diese Forschungsarbeit führt eine systematische Literaturrecherche durch, um die verschiedenen Schnittstellen zu kategorisieren, die für die Interaktion mit Data Trusts, Vermittlern für die treuhänderische gemeinsame Nutzung von Daten, verwendet werden. Die Studie klassifiziert Schnittstellen in zwei Hauptgruppen: Mensch-System-Schnittstellen für die Benutzerinteraktion (z. B. Dashboards) und System-System-Schnittstellen für die automatisierte Maschinenkommunikation (z. B. APIs). Ziel ist es, ein grundlegendes Verständnis zu schaffen, das die praktische Umsetzung vertrauenswürdiger Ökosysteme für die gemeinsame Nutzung von Daten leitet.
Problem:
Datentreuhandschaften etablieren sich als ein wesentlicher Mechanismus für den sicheren und ethischen Datenaustausch, doch ihre erfolgreiche Implementierung wird durch einen Mangel an klaren Standards und Verständnis dafür behindert, wie verschiedene Akteure mit ihnen interagieren sollten. Es gibt eine erhebliche Forschungslücke hinsichtlich des spezifischen Designs und der Systematisierung von Benutzer- und technischen Schnittstellen. Diese Mehrdeutigkeit erschwert den Aufbau robuster, interoperabler und benutzerfreundlicher Datentreuhandschaften, die breit angenommen werden können.
Ergebnisse:
- Schnittstellen für Datentreuhänder werden in zwei wesentliche Typen kategorisiert: Mensch-System (z. B. grafische Benutzeroberflächen, Dashboards) und System-System (z. B. APIs, Nachrichteninterfaces).
- Die Studie zeigt, dass in der bestehenden Forschung klare, detaillierte Spezifikationen und eine rigorose Analyse fehlen, wie diese Schnittstellen in Datentreuhändern implementiert werden.
- Es besteht ein dringender Bedarf an standardisierten, interoperablen technischen Schnittstellen (APIs), um einen nahtlosen Datenaustausch zwischen verschiedenen Systemen und Datenquellen zu gewährleisten.
- Die Forschung hebt eine Lücke in der Literatur hinsichtlich des Zusammenhangs zwischen Schnittstellen, verschiedenen Datenstrukturen (strukturiert, semistrukturiert, unstrukturiert) und Datenspeichersystemen hervor.
- Die Arbeit bietet einen umfassenden Überblick, der als grundlegender Schritt für die zukünftige Entwicklung und praktische Implementierung von Schnittstellen in Datentreuhänder-Ökosystemen dient.
Mehr
May, Maximilian; Hopf, Konstantin; Haag, Felix; Staake, Thorsten; Wortmann, Felix
The PV Solution Guide: A Prototype for a Decision Support System for Photovoltaic Systems Decision Support Systems, Solar Systems, Generative AI, Human Centered Design, Qualitative Research
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie präsentiert das konzeptionelle Design und die Evaluierung des „PV Solution Guide“, eines benutzerzentrierten Prototyps für ein Entscheidungshilfesystem für Photovoltaikanlagen (PV). Forscher nutzten qualitative Interviews, um die Bedürfnisse von Hausbesitzern zu ermitteln, und entwickelten dann einen interaktiven Prototyp, der eine personalisierte Anleitung bietet soll. Die Benutzerfreundlichkeit und Vertrauenswürdigkeit des Prototyps wurden anschließend getestet und mit einem etablierten, hochmodernen staatlichen Werkzeug verglichen.
Problem:
Hausbesitzer, die über Solarenergie nachdenken, stoßen oft auf erhebliche Hürden aufgrund starrer und unpersönlicher Online-Beratungsleitfäden. Diese Tools gehen häufig nicht auf die einzigartigen Merkmale des Hauses oder unterschiedliche Kenntnisstände der Benutzer ein, was zu mangelndem Vertrauen und Entscheidungsunfähigkeit führt. Diese Informationslücke stellt eine große Barriere für die Einführung erneuerbarer Energielösungen dar.
Ergebnisse:
- Der Prototyp des „PV Solution Guide“ übertraf ein bestehendes staatliches Werkzeug sowohl in Bezug auf Benutzerfreundlichkeit als auch auf Nutzervertrauen signifikant.
- Die Nutzer empfanden den Prototyp als wesentlich einfacher zu bedienen, mit einer Usability-Bewertung von 80,21 im Vergleich zu den 56,04 des bestehenden Werkzeugs.
- Der Prototyp wurde als vertrauenswürdiger wahrgenommen, insbesondere in Bezug auf seine Kompetenz (Fähigkeit, seine Funktion zu erfüllen) und Wohlwollen (Handeln im besten Interesse des Nutzers).
- Schlüsselfunktionen, die den Erfolg ausmachten, waren die Anpassungsfähigkeit an das Wissensniveau des Nutzers und den spezifischen Haustyp, transparente Kostenaufschlüsselungen und ein interaktives 3D-Modell.
- Ein dynamischer, konversationeller und personalisierter Ansatz ist für die Beratung von Verbrauchern effektiver als statische Einheitsrechner im Internet.
Mehr
Lauer, Chantale; Lenner, Maximilian; Piontek, Jan; Murlowski, Christian
Designing AI-driven Meal Demand Prediction Systems meal demand prediction, forecasting methodology, customer choice behaviour, supervised machine learning, design science research
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie umreißt die Entwicklung eines Frameworks für KI-gesteuerte Systeme zur Vorhersage der Nachfrage nach Mahlzeiten, mit speziellem Fokus auf die Flugbranche. Unter Anwendung eines Design Science Research-Ansatzes führten die Autoren Interviews mit Branchenexperten durch, um Systemanforderungen zu identifizieren. Diese Anforderungen wurden dann zur Erstellung von neun Kernentwurfsprinzipien und einer machbaren Systemarchitektur verwendet, die durch einen Prototyp validiert wurde.
Problem:
Fluggesellschaften und Catering-Dienste haben Schwierigkeiten, die Nachfrage nach Bordmahlzeiten genau vorherzusagen, was zu erheblichen Lebensmittelabfällen, finanziellen Verlusten und potenzieller Kundenunzufriedenheit führt, wenn Mahlzeiten nicht verfügbar sind. Traditionelle Prognosemethoden sind oft unzureichend, und trotz des Potenzials künstlicher Intelligenz (KI) zur Verbesserung von Genauigkeit und Effizienz bleibt deren Einführung in der Branche extrem gering.
Ergebnisse:
- Die Forschung identifizierte neun wesentliche Designprinzipien für den Aufbau effektiver KI-gestützter Systeme zur Vorhersage der Essensnachfrage, wie datengesteuerte Prognose, automatisierte Datenintegration sowie nachhaltiges und abfallminimierendes Design.
- Ein erfolgreiches System muss verschiedene Datenquellen integrieren, darunter interne historische Daten und externe Faktoren wie Wetter und Feiertage, um die Vorhersagegenauigkeit zu verbessern.
- Eine vorgeschlagene Systemarchitektur zeigt, wie diese Prinzipien durch eine zentrale Datenbank, ein maschinelles Lernmodell und APIs zur Integration mit bestehenden Flugsystemen umgesetzt werden können.
- Zu den wichtigsten Erfolgsfaktoren gehören eine transparente und benutzerfreundliche Schnittstelle für Catering-Manager, die Gewährleistung des Datenschutzes sowie die Ausgewogenheit von Kosteneffizienz mit Kundenzufriedenheit und Nachhaltigkeitszielen.
- Obwohl der Fokus auf Fluggesellschaften liegt, sind die Designprinzipien breit anwendbar auf andere Branchen, die mit verderblichen Waren und komplexen Nachfrageprognosen zu tun haben.
Mehr
Cabrejas Leonhardt, Alicia; Kalff, Maximilian; Kobel, Emil; Bauch, Max
Analyzing German Parliamentary Speeches: A Machine Learning Approach for Topic and Sentiment Classification Natural Language Processing, German Parliamentary, Discourse Analysis, Bundestag
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie analysierte mithilfe künstlicher Intelligenz rund 28.000 Reden des deutschen Parlaments (des Bundestages) aus den letzten fünf Jahren. Die Forscher entwickelten maschinelle Lernmodelle, um das Thema und die Stimmung (d. h. den kritischen oder unterstützenden Ton) jeder Rede automatisch zu klassifizieren, um groß angelegte Muster in der politischen Kommunikation aufzudecken.
Problem:
Angesichts wachsenden öffentlichen Misstrauens gegenüber politischen Institutionen ist es für Außenstehende oft schwierig, ein objektives Verständnis von politischen Prioritäten und Strategien direkt aus Parlamentsdebatten zu gewinnen. Diese Studie schließt diese Lücke, indem sie ein datengesteuertes Werkzeug zur Analyse des politischen Diskurses bereitstellt, das transparente Einblicke in die Art und Weise bietet, wie Parteien Themen thematisieren und ihre Kommunikationsstile je nach politischer Rolle ändern.
Ergebnisse:
- Die Rolle einer Partei als Regierung oder Opposition ist der stärkste Prädiktor für ihren Kommunikationsstil; Oppositionsparteien verwenden durchweg eine weitaus kritischere Sprache.
- Wenn Parteien nach einer Wahl die Rollen wechseln (z. B. von der Regierung zur Opposition), ändert sich ihr Ton dramatisch und wird deutlich negativer.
- Parlamentsdebatten werden von drei Hauptthemen dominiert: Wirtschaft & Finanzen, Soziales & Bildung sowie Außen- & Sicherheitspolitik, die zusammen über 70 % der Diskussionen ausmachen.
- Parteien an den politischen Extremen verwenden durchweg ein hohes Maß an negativer Rhetorik, wobei über 80-90 % ihrer Reden einen kritischen Ton haben.
- Parteien sind oft am kritischsten, wenn sie ihre eigenen Kernpolitikbereiche diskutieren, und nutzen negative Emotionen strategisch, um die Dringlichkeit ihrer vorgeschlagenen Lösungen zu betonen.
Challenges and Mitigation Strategies for AI Startups - Leveraging Effectuation Theory in a Dynamic Environment Artificial intelligence, Entrepreneurial challenge, Effectuation theory, Qualitative research
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht die besonderen Herausforderungen, mit denen Start-ups im Bereich der Künstlichen Intelligenz (KI) konfrontiert sind, darunter Datenbeschaffung, Talentrekrutierung, regulatorische Hürden und Wettbewerb. Mithilfe eines qualitativen Ansatzes, der auf zehn halbstrukturierten Interviews mit Gründern basiert, wendet die Forschung die Effuaktionstheorie an, um praktische Strategien für die Bewältigung des dynamischen und unsicheren KI-Geschäftsumfelds zu identifizieren.
Problem:
Während die Investitionen in KI-Start-ups stark ansteigen, stehen diese Unternehmen vor besonderen Hindernissen, die bei traditionellen Technologieunternehmen nicht auftreten. Die aktuelle Wirtschaftsliteratur versäumt es oft, KI-Start-ups von anderen digitalen Unternehmen zu unterscheiden, was zu einer Wissenslücke darüber führt, wie Gründer effektiv mit hoher Unsicherheit, Datenabhängigkeit und einer sich schnell entwickelnden regulatorischen Landschaft umgehen können.
Ergebnisse:
- KI-Startups stehen vor großen Herausforderungen bei der Beschaffung hochwertiger Daten, erschwinglicher KI-Modelle und qualifizierter Talente. Erfolgreiche Gründer mildern diese Probleme, indem sie Partnerschaften mit Kunden für Daten eingehen, Open-Source-Tools für schlanke Entwicklung nutzen und Universitätsnetzwerke für die Einstellung nutzen.
- Anstatt direkter Konkurrenz differenzieren sich effektive Startups, indem sie Lösungen für spezifische Kundenbedürfnisse zuschneiden und tiefe Fachbeziehungen aufbauen, wodurch ein Wettbewerbsvorteil entsteht, der schwer zu replizieren ist.
- Regulatorische Hürden, wie der EU-KI-Gesetz, können von einer Last in einen strategischen Vorteil umgewandelt werden. Proaktive Compliance kann Vertrauen bei Unternehmenskunden aufbauen und eine Eintrittsbarriere für Wettbewerber schaffen.
- Gründer navigieren erfolgreich durch Marktunsicherheiten, indem sie nicht die Zukunft vorhersagen, sondern adaptiv handeln. Sie nutzen vorhandene Ressourcen, bilden strategische Partnerschaften, konzentrieren sich auf erschwingliche Risiken und iterieren basierend auf Kundenfeedback.
Mehr
Umminger, Marleen; Hafner, Alina
Designing Scalable Enterprise Systems: Learning From Digital Startups Enterprise systems, Business process management, Digital entrepreneurship
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, wie Unternehmenssysteme (ES) gestaltet werden können, die den Bedürfnissen schnell wachsender digitaler Start-ups gerecht werden. Unter Anwendung eines Design-Science-Research-Ansatzes befragten die Autoren Vertreter von 11 Start-ups, um Schlüsselanforderungen für skalierbare Geschäftsprozesse zu identifizieren. Die Forschung führte zu neun spezifischen Gestaltungsprinzipien für die Schaffung flexibler, anpassungsfähiger und skalierbarer Unternehmenssysteme, die für dynamische Umgebungen geeignet sind.
Problem:
Traditionelle Unternehmenssysteme sind typischerweise starr und setzen stabile Geschäftsprozesse voraus, was sie für dynamische Organisationen wie digitale Startups ungeeignet macht. Diese schnell wachsenden Unternehmen benötigen flexible, anpassungsfähige Systeme zur Unterstützung kontinuierlichen Wandels und Wachstums, aber es gibt nur begrenzte Anleitungen, wie ES entworfen werden können, die diesen spezifischen Anforderungen gerecht werden. Diese Studie schließt diese Lücke, indem sie die einzigartigen ES-Bedürfnisse von Startups untersucht, um einen besser geeigneten architektonischen Ansatz vorzuschlagen.
Ergebnisse:
- Die Forschung identifizierte neun Kernprinzipien für skalierbare Unternehmenssysteme, die auf Startups zugeschnitten sind: Effizienz durch Automatisierung, Integration, datengesteuerte Entscheidungsfindung, Archivierung, Flexibilität, Skalierbarkeit, Leistung, Transparenz und benutzerzentriertes Design.
- Eine modulare Systemarchitektur wird vorgeschlagen, die eine zentrale Workflow-Engine, eine erweiterbare API und integrierte Datendienste zur Unterstützung schneller Anpassung und Wachstum umfasst.
- Im Gegensatz zu traditionellen Systemen, die eine starre Zuverlässigkeit priorisieren, betont die vorgeschlagene ES-Architektur Transparenz und Nachverfolgbarkeit durch Protokollierung, was sicheres Experimentieren und kontinuierliche Verbesserung ermöglicht.
- Die Ergebnisse unterstreichen den kritischen Bedarf an Systemen, die sich nahtlos in bestehende Tools integrieren lassen, um Datenredundanz zu reduzieren, manuelle Aufwände zu minimieren und agile Arbeitsabläufe zu unterstützen.
- Die Studie kommt zu dem Schluss, dass Unternehmenssysteme für Startups Prozessanpassungsfähigkeit als Kernmerkmal und nicht als Ausnahme aufweisen müssen, um ihre sich entwickelnden Geschäftsanforderungen zu unterstützen.
Mehr
Weber, Richard Johann; Blaschke, Max; Kalff, Maximilian; Khalil, Noah; Kobel, Emil; Ulbricht, Oscar Anton; Wuttke, Tobias; Haskamp, Thomas; vom Brocke, Jan
AI at Work: Intelligent Personal Assistants in Work Practices for Process Innovation Intelligent Personal Assistants, Process Innovation, Workflow, Task-Technology Fit Theory
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, wie KI-gestützte intelligente persönliche Assistenten (IPAs) zur Prozessinnovation beitragen und Geschäftsabläufe verbessern. Anhand der Task-Technology Fit-Theorie analysierten die Forscher Daten aus Interviews mit zwölf Fachleuten, um zu verstehen, wie diese Werkzeuge integriert werden, welche Vorteile sie bieten und welche Grenzen sie in einem realen Arbeitskontext haben.
Problem:
Unternehmen übernehmen KI rasant, doch das Verständnis dafür, wie Mitarbeiter Tools wie ChatGPT praktisch zur Innovation ihrer Arbeitsprozesse einsetzen, ist begrenzt. Diese Forschung schließt diese Lücke, indem sie untersucht, auf welche spezifischen Weisen IPAs in tägliche Arbeitsabläufe integriert werden und wie sie die Anpassungsfähigkeit über einfache Aufgabenautomatisierung hinaus verbessern.
Ergebnisse:
- KI-Assistenten verbessern Arbeitsprozesse in vier Schlüsselbereichen: Anleitung und Problemlösung, Entscheidungsunterstützung und Brainstorming, Workflow-Automatisierung und Kommunikationsunterstützung.
- Wichtige Treiber für die Einführung dieser Tools sind sozialer Einfluss (Mundpropaganda), der Bedarf an höherer Effizienz und professionelle Neugier.
- Die Einführung wird derzeit durch Herausforderungen wie schlechte Integration in bestehende Software, Datenschutzbedenken und Einschränkungen des KI-Gedächtnisses und der Denkfähigkeit begrenzt.
- Regelmäßige Nutzer setzen IPAs für strategische und kreative Aufgaben ein, während gelegentliche Nutzer sich auf einfache, repetitive Arbeiten wie Dokumentation konzentrieren.
- Zukünftige, von Nutzern gewünschte Verbesserungen sind eine bessere Workflow-Integration, personalisierte Antworten und verbesserte Sicherheits- und ethische Funktionen zur Reduzierung von Verzerrungen.
Mehr
Kockar, Zeynep; Burger, Mara
Understanding AI’s impact on business value creation Platform organizations, Artificial intelligence, Organizational capability, Value creation
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie untersucht, wie Künstliche Intelligenz (KI) speziell für plattformbasierte Unternehmen einen Geschäftswert schafft. Anhand eines zweiteiligen Mixed-Methods-Ansatzes entwickelt die Forschung zunächst einen Rahmen zur Klassifizierung von KI-Anwendungen auf Basis von Experteninterviews und schlägt anschließend eine empirische Studie vor, um deren Auswirkungen auf den Shareholder Value zu messen. Ziel ist es, zu klären, wie verschiedene KI-Tools die organisatorischen Fähigkeiten verbessern und zum Unternehmensergebnis beitragen.
Problem:
Unternehmen investieren Milliarden in KI, aber viele Projekte erzielen keine signifikanten Erträge. Bestehende Forschung untersucht KI-Anwendungen oft in isolierten Kontexten oder zu breit, was Managern nicht hilft zu verstehen, wie verschiedene Arten von KI strategisch zum Geschäftswert beitragen. Diese Wissenslücke erschwert es Unternehmen, KI effektiv einzusetzen, um Prozesse zu verbessern, Dienstleistungen zu erweitern und einen Wettbewerbsvorteil zu erzielen.
Ergebnisse:
- Die Forschung identifiziert 14 verschiedene KI-Anwendungen, die von Unternehmen genutzt werden, und kategorisiert sie in vier Hauptgruppen: Prozessautomatisierung, Prozessanreicherung, Produkt-/Dienstleistungsangebote und Ökosystementwicklung.
- KI schafft intern Wert, indem sie Aufgaben automatisiert, die Effizienz verbessert und den internen Wissensaustausch fördert.
- KI schafft extern Wert, indem sie neue Produkte und Dienstleistungen ermöglicht, die Personalisierung verbessert und Interaktionen innerhalb des Geschäftsökosystems orchestriert.
- Die Studie liefert einen klaren Rahmen, der spezifische KI-Anwendungen mit ihren Auswirkungen auf interne Abläufe oder externe Marktangebote verknüpft und so strategische Investitionen leitet.
Mehr
Schadl, Adrian; Li, Mahei Manhai; Janson, Andreas; Schäfer, Björn
Generative künstliche Intelligenz in der Geschäftsprozessoptimierung: Eine Reifegradanalyse betrieblicher Anwendungsfälle Generative künstliche Intelligenz, Geschäftsprozesse, Optimierung
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie bietet einen umfassenden Überblick über Anwendungen Generativer KI (GenAI) zur Optimierung von Geschäftsprozessen. Durch eine systematische Literaturrecherche und qualitative Inhaltsanalyse bewertet das Papier den Reifegrad verschiedener GenAI-Anwendungsfälle in unterschiedlichen Segmenten der Unternehmenswertschöpfungskette.
Problem:
Während das Potenzial von generativer KI enorm ist, macht ihre Neuheit es für Unternehmen schwierig zu erkennen, wo die Technologie reif genug für eine effektive Implementierung ist. Diese Forschung schließt diese Lücke, indem sie systematisch abbildet, welche Geschäftsbereiche bereits von GenAI profitieren können und welche weitere Entwicklung erfordern, und bietet so eine klare Anleitung für Manager und Forscher.
Ergebnisse:
- Die ausgereiftesten und am besten erforschten Anwendungen generativer KI finden sich in technischen Domänen, insbesondere im Produktionssektor.
- Produktentwicklung und Wartung & Service sind die Geschäftsprozesse mit den fortschrittlichsten und erfolgreich implementierten GenAI-Lösungen.
- Anwendungen in Bereichen mit hohem menschlichem Interaktionsgrad, wie Marketing und Vertrieb, sind derzeit weniger entwickelt und stellen aufstrebende Bereiche für Forschung und Implementierung dar.
- Das Produktionssegment der Wertschöpfungskette weist im Vergleich zu anderen Unternehmensfunktionen die höchste Anzahl ausgereifter GenAI-Anwendungsfälle auf.
Mehr
Mengele, Ralf Johannes
Service Innovation through Data Ecosystems – Designing a Recombinant Method Service Ecosystem, Data Ecosystem, Data Space, Service Engineering, Conceptual Research
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie entwickelt eine neue Methode namens RE-SIDE zur Gestaltung innovativer Dienstleistungen in komplexen Geschäftsökosystemen, die durch gemeinsame Datenplattformen ermöglicht werden. Mit einem Design Science Research Ansatz erweitert das Paper einen bestehenden Industriestandard, um die zahlreichen Akteure und dynamischen Veränderungen in diesen datengesteuerten Umgebungen besser zu berücksichtigen. Die Wirksamkeit der Methode wird anhand einer realen Fallstudie mit einem "Kultur-Wallet"-Dienst demonstriert.
Problem:
Traditionelle Methoden zur Schaffung neuer Dienste sind für einfache, Eins-zu-Eins-Interaktionen zwischen einem Anbieter und einem Kunden konzipiert. Diese Ansätze sind unzureichend für moderne digitale Ökosysteme, in denen zahlreiche unabhängige Organisationen zusammenarbeiten und Daten austauschen müssen, um Werte zu schaffen. Dies hinterlässt eine kritische Lücke für einen Rahmen, der Innovationen in diesen komplexen Umgebungen mit mehreren Akteuren anleiten kann.
Ergebnisse:
- Die Forschung stellt die RE-SIDE-Methode vor, einen praktischen Rahmen für die Gestaltung von Dienstleistungen in Multi-Partner-Daten-reichen Geschäftsökosystemen.
- Sie erweitert bestehende Standards für das Service Design um zwei entscheidende neue Phasen: 'Ökosystemanalyse' und 'Ökosystemtransformation'.
- Die Phase 'Ökosystemanalyse' hilft einem Unternehmen, seine Position zu verstehen, potenzielle Partner zu identifizieren und Chancen sowie Risiken in der breiteren Marktlandschaft zu bewerten.
- Die Phase 'Ökosystemtransformation' bietet einen Prozess zur kontinuierlichen Überwachung und Anpassung von Dienstleistungen an fortlaufende Veränderungen im Ökosystem, um die langfristige Relevanz zu gewährleisten.
- Die Anwendung der Methode wird durch die Gestaltung eines „Culture Wallet“ nachgewiesen, das zeigt, wie Kulturinstitutionen durch die Nutzung gemeinsamer Daten zusammenarbeiten können, um neue Werte für Kunden zu schaffen.
Mehr
Hansmeier, Philipp; zur Heiden, Philipp; Beverungen, Daniel
Countering Anti-Democratic Content on Social Media: Employing a Future-Oriented Prebunking Intervention Mental Immune System, Attitude Inoculation, Prebunking Intervention, Cognitive Immunology, Future Orientation
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie schlägt eine Online-Interventionsmethode namens „Prebunking“ vor, um der Verbreitung antidemokratischer Einstellungen in sozialen Medien entgegenzuwirken. Basierend auf dem Konzept der Einstellungs-Inokulation zielt die Intervention darauf ab, bei Individuen eine „zukunftsorientierte Denkweise“ aufzubauen und somit ihre mentale Widerstandsfähigkeit gegen manipulative Inhalte zu stärken. Die Wirksamkeit dieses Ansatzes wird durch ein kontrolliertes, randomisiertes Online-Experiment getestet.
Problem:
Antidemokratische Inhalte in sozialen Medien stellen eine erhebliche Bedanke für die Stabilität westlicher Gesellschaften dar, indem sie den politischen Zynismus verstärken und die Unterstützung für demokratische Institutionen verringern. Aktuelle Gegenmaßnahmen von Technologieunternehmen und Regierungen sind oft unzureichend, und einige Interventionen sind sogar nach hinten losgegangen. Diese Forschung adressiert die Lücke für einen nutzerzentrierten psychologischen Ansatz, der Einzelpersonen proaktiv gegen schädliche Überzeugung "impfen" kann.
Ergebnisse:
- Schlägt eine neuartige „Prebunking“-Intervention vor, die darauf abzielt, die kognitive Immunität von Personen gegen demokratiefeindliche Inhalte im Internet aufzubauen.
- Die Intervention zielt darauf ab, eine „zukunftsorientierte Denkweise“ zu fördern, die theoretisch als Schutzfaktor gegen die Übernahme antisozialer und antidemokratischer Ansichten wirkt.
- Die Studie wird experimentell testen, ob diese Intervention bereits bestehende antidemokratische Einstellungen reduzieren und die Wahrscheinlichkeit verringern kann, dass Personen solche Inhalte teilen.
- Die Forschung zielt darauf ab, eine Grundlage für den Einsatz psychologisch fundierter Interventionen zu schaffen, um Personen vor manipulativen Online-Einflüssen zu schützen.
Mehr
Dürr, Marco; Risius, Marten; Louis, Winnifred
BPMN4CAI: Eine BPMN-Erweiterung zur Modellierung dynamischer Conversational AI Conversational AI, BPMN, Geschäftsprozessmodellierung, Chatbots, Conversational Agent
Podcast:
Link kopieren
Zusammenfassung:
Diese Studie stellt BPMN4CAI vor, eine standardkonforme Erweiterung für Business Process Model and Notation (BPMN), die zur Integration von dynamischer Conversational AI in Geschäftsabläufe entwickelt wurde. Unter Verwendung einer Design Science Research Methodik entwickelt und evaluiert die Arbeit einen Ansatz, der bestehende BPMN-Elemente systematisch um spezialisierte Komponenten erweitert. Die Anwendbarkeit des Frameworks wird anhand einer praktischen Fallstudie demonstriert.
Problem:
Standard Business Process Model and Notation (BPMN) ist für vorhersagbare, deterministische Prozesse konzipiert und daher schlecht geeignet für die Modellierung moderner konversationeller KI-Systeme wie Chatbots. Diese KI-Systeme weisen dynamisches, kontextsensitives und nicht-deterministisches Verhalten auf, das schwer darstellbar ist, wodurch eine praktische und methodische Lücke für die transparente Integration in formale Geschäftsprozessdesigns entsteht.
Ergebnisse:
- Entwickelte BPMN4CAI, eine standardkonforme Erweiterung, die die formale Modellierung von Conversational AI innerhalb von Geschäftsprozessen ermöglicht.
- Die Erweiterung führt neue Elemente wie die 'Conversational Task', das 'AI Decision Gateway' und das 'Human Escalation Event' ein, um dynamische Dialoge, KI-basierte Entscheidungen und Übergaben an menschliche Agenten darzustellen.
- Die Ergebnisse zeigen, dass BPMN4CAI die Fähigkeit verbessert, adaptive Entscheidungsfindung zu modellieren, Gesprächskontext zu verwalten und transparente KI-Interaktionen zu erstellen.
- Ein Proof-of-Concept in der Versicherungsbranche bestätigte die praktische Anwendbarkeit und die Vorteile der Erweiterung gegenüber traditionellem BPMN.
- Die Studie identifiziert auch Einschränkungen und stellt fest, dass die Modellierung hochkomplexer, nicht-deterministischer Prozesspfade weiterhin eine Herausforderung darstellt.
Mehr
Eger, Björn-Lennart; Rose, Daniel; Dinter, Barbara