Daten sind das neue Gold
- wir helfen Ihnen es zu heben
Erfassung, Aufbereitung sowie Analyse großer Datenmengen
Als Hemmnis für die Einführung von Künstlicher Intelligenz wird von Unternehmen häufig fehlende Daten oder eine unzureichende Qualität der zur Verfügung stehenden Daten genannt. Diese Probleme aus dem Weg zu schaffen, haben wir uns zur Aufgabe gemacht. Wir unterstützen Sie dabei die Grundlagen zur Datenerfassung zu legen als auch externe Quellen anzuzapfen, um die notwendigen Daten zu beschaffen, diese aufzubereiten und auch auszuwerten.
Sie sollten weiterlesen, wenn Sie
- für Ihre Prozesse hilfreiche Daten im Internet erfassen möchten
- die in Ihrem Unternehmen vorhandenen Daten aufbereiten und konsolidieren möchten
- zu den 29,6% der Unternehmen gehören, die über fehlende Verfügbarkeit von Daten klagen1
- wie 27,5% der Unternehmen eine unzureichende Qualität der zur Verfügung stehenden Daten haben1
Unser Data Science-Leistungsportfolio
Datenerhebung
Auf Basis unseres dedizierten physischen Crawling-Netzwerkes können wir Online-Quellen schnell und umfassend monitoren sowie erfassen. Auch Datenerhebung in internen Bereichen mit Login-Erfordernis ist für unsere Crawler kein Problem.
Über ein physisches Proxy-Netzwerk ist bei Bedarf auch die Verschleierung oder Änderung der geografischen Herkunft möglich.
- Dediziertes Crawling-Netzwerk
- Physisches Proxy-Netz
- Wählbare Crawling-Intervalle
- Beliebige Online-Quellen
Datenanreicherung
Vorhandene Daten können mit Informationen aus anderen Quellen (bspw. Online-Datenbanken oder andere Unternehmens-interne Datenquellen) veredelt werden.
Mit Hilfe von Künstlicher Intelligenz kann eine Bild-Daten-Auswertung erfolgen und zur Identifikation, Matching oder Kategorisierung genutzt werden.
Auf Basis der Technologie unseres KI-Agenten AIMAX® kann ein Clustering bzw. eine Kontext-basierte Kategorisierung zudem anhand von unstrukturierten Daten und Texten erfolgen.
- Datenveredlung auf Basis von Online-Datenbanken
- KI-basiertes Bild-Matching
- KI-basierte Kontext-Analyse zur Kategorisierung
Schnittstellen
Wir schaffen Schnittstellen, wo Sie sie benötigen - egal ob proprietäre Software oder Open Source Lösung.
Unser Entwicklerteam ist spezialisiert auf die Herausforderungen der Digitalisierung. Die Verknüpfung unterschiedlicher spezialisierter Softwaresysteme und deren Daten gehört für uns zum Tagesgeschäft.
- Anbindung proprietärer Systeme - z.B. mit der Kognitiven KI EMMA RPA
- Anbindung unstrukturierter Daten mit dem KI-Agenten AIMAX®
- Einsatz von Middleware-Systemen wie Prometheus, graylog, u.a.
- Datentransformationen mit XSLT
- Bedarfsgerechte Individualentwicklung von Schnittstellen

»Der Umgang mit großen Datenmengen gehört für uns zum Daily Business. Mit unserem PREISmonitoring-Service erheben wir seit über 10 Jahren tagtäglich Millionen von Datensätzen, die wir für unsere Kunden anreichern und im gewünschten Format zur Verfügung stellen. Sprechen Sie mich gern darauf an!«
Quantität als essenzielle Basis für die Mustererkennung
Bei der Entwicklung leistungsfähiger Künstlicher Intelligenz (KI) spielt die Menge der verfügbaren Daten eine entscheidende Rolle. Die Quantität der Daten beeinflusst maßgeblich die Fähigkeit der KI, Muster zu erkennen, Vorhersagen zu treffen und komplexe Aufgaben effektiv zu lösen.
Aus diesen Gründen spielt die Menge an Daten eine entscheidende Rolle beim Training einer KI:
- Bessere Modellgenauigkeit: Eine große Datenmenge ermöglicht es KI-Modellen, umfassendere und genauere Muster zu erkennen. Je mehr Daten das Modell verarbeiten kann, desto präziser kann es Vorhersagen treffen und Unregelmäßigkeiten herausfiltern.
- Vielfalt und Repräsentativität: Eine umfangreiche Datenbasis deckt eine größere Vielfalt an Szenarien und Variationen ab, was die Fähigkeit der KI verbessert, in unterschiedlichen Situationen robust zu reagieren. Sie stellt sicher, dass das Modell nicht nur auf spezifische oder seltene Datenmuster fixiert ist.
- Erhöhung der Robustheit: Mit mehr Daten kann die KI besser generalisieren und ist weniger anfällig für Überanpassung (Overfitting). Sie lernt, nicht nur Ausnahmen zu verstehen, sondern auch allgemeine Regeln anzuwenden, was die Stabilität des Modells erhöht.
- Fehlertoleranz: Eine große Datenmenge ermöglicht es auch, Anomalien oder fehlerhafte Datenpunkte besser im Kontext zu verarbeiten, ohne das Gesamtmodell negativ zu beeinflussen. Dies trägt zur Zuverlässigkeit der Modellvorhersagen bei.
- Ermöglichung von Deep Learning: Insbesondere bei tiefen neuronalen Netzen, die eine große Anzahl von Parametern und Komplexität aufweisen, sind große Datenmengen erforderlich, um die Modelle sinnvoll und leistungsfähig zu machen.
Die Menge der Daten ist nicht nur ein Vorteil, sondern eine Notwendigkeit, um die volle Leistungsfähigkeit von Künstlicher Intelligenz auszuschöpfen.
Nachfolgend finden Sie typische Hemmnisse für die Daten-Quantität:
Hinderungsgrund 1: Datenschutz
Wie bereits geschildert, ist das Anlernen von Künstlicher Intelligenz (KI) auf eine ausreichende Datenbasis angewiesen, um präzise und effektive Modelle zu entwickeln. Eine der größten Herausforderungen dabei ist die Balance zwischen der Notwendigkeit einer großen Datenquantität und den strengen Anforderungen des Datenschutzes.
Datenschutzbestimmungen, wie die Datenschutz-Grundverordnung (DSGVO) in Europa, setzen strenge Regelungen dafür fest, welche Daten gesammelt und verarbeitet werden dürfen. Dies kann den Zugang zu großen Datensätzen beschränken und somit die Datenquantität reduzieren, die für das Training von KI notwendig ist.
Mit wachsendem Bewusstsein der Öffentlichkeit über den Schutz ihrer persönlichen Daten, sind Unternehmen in der Pflicht, transparente und konforme Datenerhebungspraktiken sicherzustellen. Diese Anforderungen können zu einer vorsichtigeren Datenpolitik führen, die die Quantität der verfügbaren Daten weiter reduziert.
Um KI-Modelle effektiv zu trainieren, muss eine Balance zwischen der erforderlichen Datenquantität und den Datenschutzvorgaben gefunden werden. Innovative Ansätze wie federated learning, Data Trusts oder synthetische Datensätze bieten die Möglichkeit, Daten zu nutzen, ohne den Datenschutz zu gefährden. Diese Lösungen können helfen, die Herausforderungen des Datenschutzes zu überwinden und KI-Systeme mit einer ausreichenden Datenbasis zu versorgen.
Hinderungsgrund 2: Heterogene IT-Landschaften
Eine häufig unterschätzte Herausforderung ist die Heterogenität der IT-Landschaften, die die Erfassung und Nutzung großer Datenmengen erschweren kann.
- Datenfragmentierung: In vielen Unternehmen sind Daten über verschiedene Systeme, Plattformen und Technologien verteilt. Diese Fragmentierung macht es schwierig, eine konsistente und umfassende Datenbasis zu schaffen, die für das Training von KI-Modellen benötigt wird.
- Inkompatible Datenformate: Unterschiedliche Systeme verwenden oft abweichende Datenformate, was die Integration und Konsolidierung dieser Daten in einen einheitlichen Datensatz erschwert. Dies kann zu Lücken in der Datenquantität führen, die für eine effektive KI-Schulung unerlässlich ist.
- Unterschiedliche Datenqualitätsstandards: Heterogene IT-Landschaften führen dazu, dass Daten aus verschiedenen Quellen unterschiedliche Qualitätsstandards aufweisen. Diese Uneinheitlichkeit kann die Verfügbarkeit einer einheitlichen und zuverlässigen Datenbasis behindern.
- Silo-Datenhaltung: Oftmals sind Daten in isolierten Silos gespeichert, was den Zugang für Analysezwecke erschwert. Solche Silos verhindern, dass alle relevanten Daten für das KI-Training zusammengeführt werden, was die Datenquantität weiter einschränkt.
Um die Herausforderungen durch heterogene IT-Landschaften zu überwinden, ist ein gezielter Ansatz zur Datenintegration und Standardisierung erforderlich. Der Einsatz von Data Warehousing, die Implementierung von Schnittstellen und Middleware sowie die Förderung einer unternehmensweiten Datenstrategie können dazu beitragen, eine qualitativ hochwertige und umfassende Datenbasis zu schaffen.
Hinterungsgrund 3: Mentale Silos
Ein oft übersehenes Hindernis für die Maximierung der Datenquantität sind mentale Silos innerhalb von Organisationen, die die effektive Nutzung und Integration von Daten erheblich behindern können.
Typische Auswirkungen mentaler Silos in Unternehmen:
- Fragmentierte Denkweise: Mentale Silos entstehen, wenn Abteilungen oder Teams innerhalb eines Unternehmens ihre Daten als individuelles Eigentum betrachten. Diese isolierte Denkweise führt dazu, dass Daten nicht geteilt oder systematisch integriert werden, was die Gesamtmenge der für KI nutzbaren Daten begrenzt.
- Wissenstransfer: Fehlende Kommunikation zwischen Teams kann dazu führen, dass wertvolle Datenquellen unbekannt bleiben oder ungenutzt bleiben. Dadurch wird die Möglichkeit verpasst, Daten für KI-Trainingszwecke umfassend zu verwenden und zu kombinieren.
- Unterbrochene Zusammenarbeit: Wenn Teams in mentalen Silos arbeiten, fehlt es oft an einer gemeinsamen Vision oder Strategie zur Datenverarbeitung. Dies führt zu ineffizienten Datenmanagementsystemen und beeinträchtigt die Datensammlung.
- Unternehmenskultur: Eine Unternehmenskultur, die Silodenken fördert, verlangsamt die Innovationskraft. Diese Haltung kann den Zugang zu umfassenden Datenmengen einschränken und somit die Datenquantität, die für KI-Projekte erforderlich ist, minimieren.
Um mentale Silos zu überwinden und die Datenquantität zu maximieren, sollten Unternehmen eine Kultur der Zusammenarbeit und des offenen Datenaustauschs fördern. Initiativen wie interdisziplinäre Teams, gemeinsame Data Governance-Strategien und Workshops zur Förderung der Datenkompetenz können dazu beitragen, mentale Silos zu durchbrechen und eine umfassende Datenbasis für KI-Anwendungen zu schaffen.
Prozessautomatisierung
zum Festpreis!
Jetzt kontaktieren.
AIMAX Business Solutions vereint ausgezeichnete Lösungen mit erstklassigem Service. Ihr Mehrwert ist unser Ziel. Einzigartige KI-Systeme lassen uns dabei anwendungsunabhängig agieren. Mit Prozess-Automatisierung und digitaler Assistenz setzen wir so neue Potenziale in Ihrem Unternehmen frei.
Qualität als Herausforderung für eine gute Daten-Grundlage
Beim Training von KI ist die Qualität der Daten genauso entscheidend wie die Quantität. Ohne qualitativ hochwertige Daten können selbst die fortschrittlichsten KI-Modelle ihre bestmögliche Leistung nicht entfalten.
Wesentliche Gründe für die Bedeutung der Datenqualität für das Anlernen von KI-Modellen:
- Präzision und Genauigkeit: Hochwertige Daten sorgen dafür, dass die von der KI getroffenen Vorhersagen und Entscheidungen präzise und zuverlässig sind. Fehlerhafte oder ungenaue Daten können zu inkorrekten Ergebnissen führen, die das Vertrauen in die KI-Lösungen gefährden.
- Übertragbarkeit: Daten von hoher Qualität ermöglichen es KI-Modellen, auf verschiedenartige Datensätze effektiv angewendet zu werden. Dies bedeutet, dass Modelle verlässlich über verschiedene Kontexte und Anwendungen hinweg funktionieren können.
- Reduzierung von Bias: Ungenaue oder unvollständige Daten können zu Verzerrungen in der KI führen. Ist eine Voreingenommenheit in den Daten enthalten, wirkt sich diese direkt auf die Ergebnisse der KI aus. Deshalb ist es wichtig etwaige Bias in den Daten zu minimieren, sodass die KI fair und objektiv agiert.
Nachfolgend finden Sie typische Gründe, für eine schlechte Daten-Qualität:
Verfälschung der Daten
Eine oft übersehene aber bedeutende Herausforderung für die Datenqualität sind verfälschte Daten, die zum Beispiel aus Selbstschutzmotiven entstehen.
In Situationen, in denen Einzelpersonen oder Organisationen Daten bereitstellen, kann es aus Gründen wie Angst vor negativen Konsequenzen oder dem Schutz der Privatsphäre zu bewusst verfälschten oder ungenauen Angaben kommen. Dies beeinträchtigt die Integrität der Datenbasis.
Um die Auswirkungen verfälschter Daten zu minimieren und eine hohe Datenqualität zu gewährleisten, sind robuste Datenerhebungs- und Validierungsstrategien erforderlich. Dazu gehören der Einsatz von Anonymisierungstechniken, um den Selbstschutzaspekt zu adressieren, sowie die Implementierung von Mechanismen zur Erkennung und Korrektur von Unstimmigkeiten in den Datensätzen. Eine transparente Kommunikation und starke Datenschutzrichtlinien können helfen, das Vertrauen der Datenlieferanten zu stärken und die Qualität der Daten erheblich zu verbessern.
Messfehler & Messprobleme
Messfehler und Messprobleme stellen eine häufige und kritische Herausforderungen dar, die die Datenintegrität und -qualität beeinträchtigen können.
Unpräzise oder fehlerhafte Messinstrumente führen dazu, dass die gesammelten Daten nicht den tatsächlichen Werten entsprechen. Auch eine fehlerhafte Kalibrierung von Messgeräten oder Sensoren kann systematische Messfehler verursachen, die sich durch den gesamten Datensatz ziehen und die Qualität der Daten komplett negativ beeinflussen.
Bei Messungen, die unter variierenden oder ungeeigneten Bedingungen durchgeführt werden, werden möglicherweise nicht die realen Verhältnisse widergespiegelt. Auch das führt zu inkonsistenten und unzuverlässigen Daten.
Um die Auswirkungen von Messfehlern und Messproblemen auf die Datenqualität zu minimieren, sind sorgfältige Datenerhebungs- und Validierungsprotokolle notwendig. Die regelmäßige Kalibrierung von Messgeräten, die Schulung des Personals für präzise Datenerfassung sowie der Einsatz von fortschrittlichen Validierungstechniken helfen, die Messqualität zu erhöhen und eine verlässliche Datenbasis zu gewährleisten.
Freiraum bei Datenerfassung
Einer der oft übersehenen Faktoren, die die Datenqualität beeinträchtigen können, ist der übermäßige Freiraum bei der Datenerfassung, bspw. in Form von Freitextfeldern zur Dateneingabe.
Freitextfelder erlauben es den Nutzern, Informationen in unterschiedlicher Struktur und Form zu erfassen, was zu inkonsistenten und uneinheitlichen Datensätzen führen kann. Diese Inkonsistenzen erschweren die Verarbeitung und Analyse der Daten. Der Freiraum bei der Dateneingabe kann außerdem zu Tippfehlern, Abkürzungen oder sogar Missverständnissen führen, die die Klarheit und Präzision der Daten beeinträchtigen. Diese Fehler sind oft schwer zu identifizieren und zu korrigieren.
Freitextfelder können darüber hinaus auch unterschiedlich interpretiert werden, je nachdem, wie der Benutzer die Informationen verstanden hat. Diese Uneindeutigkeit kann die Verlässlichkeit der Datenbasis für KI-Trainingszwecke beeinträchtigen.
Erschwerend kommt hinzu, dass die automatische Verarbeitung und Analyse von Freitextdaten komplexe Algorithmen und Natural Language Processing (NLP) erfordert, was den Prozess der Datenaufbereitung zeit- und ressourcenintensiv macht.
Um dem entgegenzuwirken, sollten strukturierte Dateneingabeformate bevorzugt werden. Vordefinierte Auswahlmöglichkeiten, Dropdown-Menüs und standardisierte Eingabefelder sorgen für eine einheitlichere Datenerfassung. Solche Standards minimieren die Fehlerquote und erhöhen die Konsistenz und Qualität der Daten.

»Von der Datenerhebung über die Datenveredlung bis hin zur Schaffung von Schnittstellen kommt bei Bedarf auch Künstliche Intelligenz bei uns zum Einsatz. Mit Know-How und Bedacht eingesetzt, vollbringt sie wahre Wunder - in kürzester Zeit.
Sie haben ein Datenproblem? Sprechen Sie mich an!«
Diversität als Notwendigkeit für aussagekräftige Daten
Diversität in den Daten ist ein entscheidender Faktor für die erfolgreiche Entwicklung und Anwendung von Künstlicher Intelligenz (KI). Eine vielfältige Datenbasis ermöglicht es KI-Modellen, breiter und umfassender zu lernen, was zu robusteren und verlässlicheren Ergebnissen führt. Die nachfolgenden Gründe verdeutlichen dies noch einmal:
- Umfassende Abbildung der Realität: Diversität stellt sicher, dass die Daten eine Vielzahl von Szenarien, Perspektiven und Variablen abdecken. Dadurch kann die KI realistische und umfassende Modelle lernen, die in unterschiedlichen und ungewohnten Situationen effektiv arbeiten.
- Vermeidung von Bias: Vielfältige Daten helfen, Verzerrungen zu reduzieren, die aus einseitigen oder homogenen Datensätzen resultieren können. Indem Bias minimiert wird, können fairere und objektivere Vorhersagen und Entscheidungen von der KI getroffen werden.
- Erhöhung der Robustheit: Mit einer breiteren Palette an Dateninput kann die KI widerstandsfähiger gegenüber Anomalien und Veränderungen sein. Sie kann besser auf dynamische Umgebungen reagieren und bleibt stabil, selbst wenn sich die zugrunde liegenden Bedingungen ändern.
- Förderung von Innovationen: Eine diversifizierte Datenbasis bietet neue Einblicke und fördert innovative Ansätze bei der Problemlösung. Sie ermutigt zu kreativen Modellen und Anwendungen, indem verschiedene Perspektiven berücksichtigt werden.
- Verbesserte Generalisierungsfähigkeit: Diversität ermöglicht es KI-Modellen, nicht nur spezifische, sondern auch allgemeine Muster zu erkennen. Dadurch werden die Modelle in unterschiedlichsten Kontexten effektiver einsetzbar.
Die Sicherstellung von Datenvielfalt erfordert strategische Bemühungen bei der Datenerhebung und -integration. Unternehmen sollten darauf abzielen, Daten aus verschiedenen Quellen, Populationen und Kontexten zu sammeln, um eine breite und repräsentative Datenbasis zu schaffen.
Potenzielle externe Datenquellen
Wie wir Ihnen sicher mittlerweile vermitteln konnten, sind Daten das Herzstück jeder erfolgreichen KI-Initiative. Die Wahl der richtigen Quellen zur Datenerfassung ist entscheidend, um KI-Modelle effektiv zu trainieren und wertvolle Erkenntnisse zu gewinnen. Neben den internen Daten, die Sie in Ihrem Unternehmen bereits erfassen, finden Sie nachfolgend einige Anregungen für mögliche Bezugsquellen externer Daten:
- Datenplattformen: Plattformen wie bspw. Kaggle bieten eine Fülle an offenen Datensätzen, die von der Community gesammelt und bereitgestellt werden. Sie sind nicht nur eine schier unerschöpfliche Quelle für verschiedene Datenkategorien, sondern bieten auch Wettbewerbe und Foren zum Austausch von Wissen und Erfahrungen.
- Datensuchmaschinen: Spezialisierte Suchmaschinen, wie Google Dataset Search oder andere branchenspezifische Tools, erleichtern die Identifizierung und den Zugriff auf öffentlich zugängliche Datensätze. Sie fungieren als Knotenpunkte zur Entdeckung relevanter und aktueller Daten.
- Data Crawler: Diese automatisierten Werkzeuge durchsuchen kontinuierlich das Internet, um strukturierte und unstrukturierte Daten zu sammeln. Data Crawler sind besonders nützlich, um große Mengen an Daten effizient zu extrahieren und für Analysen bereitzustellen. Auch wir betreiben einen eigenen Data Crawler Dienst, den wir u.a. für das PREISmonitoring einsetzen. Doch die Fähigkeiten unserer Crawler gehen weit über die reine Preiserfassung hinaus. Sie haben konkrete Anforderungen in diesem Bereich? Sprechen Sie uns an!
- Crowdsourcing: Bei dieser Methode werden Daten durch die kollektive Beteiligung vieler Personen gesammelt. Plattformen wie Amazon Mechanical Turk ermöglichen es, große und diverse Datensätze durch die Zusammenarbeit der globalen Community zu erschaffen, was insbesondere für die Erfassung von Trainingsdaten für maschinelles Lernen wertvoll ist.
Öffentliche Datenbanken und Regierungsdaten: Viele Regierungen und öffentliche Institutionen stellen ihre Daten kostenlos zur Verfügung, um die Transparenz zu fördern und Innovationen zu unterstützen. Solche Datenbanken enthalten oft statistische Informationen, Umfragedaten und geografische Daten.
Beispiele hierfür sind:
GovData: Das Datenportal für Deutschland ist das zentrale Open-Data-Portal der öffentlichen Verwaltung in Deutschland und bietet Zugang zu einer Vielzahl von Daten aus unterschiedlichen Bereichen, wie Umwelt, Wirtschaft, Verkehr und mehr.
Destatis: Das Statistische Bundesamt bietet umfassende statistische Informationen zu einer Vielzahl von Themen, darunter Wirtschaft, Bevölkerung, Gesundheit und Bildung. Diese Daten sind oft in Form von Berichten und Datensätzen verfügbar.
Umweltbundesamt (UBA): Das Umweltbundesamt stellt Daten zu Umwelt und Klimaschutz zur Verfügung. Dazu gehören Informationen zu Luftqualität, Wasser, Boden und Emissionen.
Diese Quellen bieten vielfältige Möglichkeiten, um hochwertige und relevante Daten zu sammeln, die für die Entwicklung leistungsfähiger KI-Projekte benötigt werden. Selbstverständlich hängt die Wahl der geeigneten Datenquelle von den spezifischen Anforderungen und Zielen Ihres Projekts ab.
KI-basiertes Bild-Matching zur Datenanreicherung
Bild-Inhalte verstehen anstatt Farben zu vergleichen

KI-basierte Erkennung des Bild-Kontextes - bspw. zur Identifizierung von Produkten anhand einer Abbildung.
Was wäre wenn ...
... Ihre Anwendung den Inhalt von Bildern versteht?!
Ein abgebildetes Objekt könnte auf anderen Bildern erkannt werden. Dies kann bspw. dafür genutzt werden, um Doubletten in Produkt-Datenbanken zu identifizieren. Ein weiterer Anwendungsfall ist das automatisierte Erkennen von Zusammenhängen in Bild-Datenbanken. In einem Produktionsprozess können so auf Basis von Kamerabildern auch Teile erkannt werden.
Ein weiteres interessantes Einsatzgebiet ergibt sich im Bereich vom Online-Shopping. So würde die KI in unserem Beispiel-Bild erkennen, dass es sich um ein Outdoor-Accessoire handelt. Diese Information könnte dann dazu genutzt werden, um bspw. auch eine Allwetter-Jacke oder andere Outdoor-Bekleidungsartikel automatisch vorzuschlagen - ohne das diese Relationen im Vorfeld manuell angelegt werden müssten.
Dieses KI-Feature kommt bspw. auch bei unserem PREISmonitoring-Dienst zum Einsatz.
Potenzielle Anwendungsgebiete
- Matching von Produkten ohne EAN
- Duplikat-Erkennung in Produkt-Datenbanken
- Erkennung von Relationen in Bild-Datenbanken
- Kauf-Empfehlungen anhand des Bild-Kontextes
- Identifikation von Objekten anhand von Kamerabildern
- etc.
Einige unserer geschätzten Referenzkunden
1 Quelle: Deutsche Social Collaboration Studie 2020 (https://www.campana-schott.com/media/user_upload/Downloads/Career/Infokit_women_work/Deutsche_Social_Collaboration_Studie_2020.pdf)