Mustererkennung benötigt Muster

Successful data mining

The hype about Big Data has made us forget that the use of a search engine has become an indispensable part of our daily work. We research facts, people, innovations or we shop electronically. Search and data analysis have become a regular part of our everyday lives. Our expectations of the quality of the results are high. 

The technical and content effort to achieve the results is through the major providers is huge. Inside a company it is often not possible to achieve comparable results. The reasons for this are often not of a technical nature. Unstructured gathered data are an essential barrier for the use of information in search engines. This kind of information is often worthless for automatic decision support. 

"Insufficient data quality, makes it difficult to re-use company knowledge!

Systems that are to be used for decision support must have a high data quality. The promised benefits of Big Data and Artificial Intelligence can only be achieved with high data quality.

If it is already difficult to establish a consistent data schema for technical data, this becomes an almost impossible undertaking for unstructured external data.

To be able to recognize patterns, patterns have to be made. Unstructured data like e.g. in mails or photos is often of little value for pattern recognition. Read more about this in our blog.
Recognizing patterns has great advantages in a complex world. If the number of influencing variables increases explosively, the lifetime of a human being is no longer sufficient to analyze these data sets meaningfully. However, in order to be able to analyze really large data sets, important technical requirements must be met.

It is not surprising that the essential and fundamental technologies for Big Data come from a company with the undisputedly largest amounts of data. MapReduce is a programming model introduced by Google for concurrent calculations over (several petabytes) large amounts of data on computer clusters. Among other things, the Hadoop framework supported by the Apache Foundation is based on the MapReduce algorithm. Other products such as Hbase (a simple database for managing extremely large amounts of data) and Hive (a project originally developed by Facebook with data warehouse functionality) are based on Hadoop.

Maschinelle Unterstützung bei der Daterfassung

Die Aufgabe besteht darin bereits bei der Datenerfassung für eine hohe Qualität zu sorgen.

Mitarbeiter sollen bei der Erfassung von Informationen bestmöglich unterstützt werden. Die Unterstützung erfolgt dabei durch ein Natural Language Processing (NLP) gestütztes Vorschlagssystem. Der vom Autor eingegebene Text wird analysiert d.h. in seine Satzbestandteile zerlegt und gegen eine Ontologie gemapped.   
Diese Ontologie beschreibt einen Wissensbereich (knowledge domain) mit Hilfe einer standardisierenden Terminologie sowie Beziehungen und ggf. Ableitungsregeln zwischen den dort definierten Begriffen. Das gemeinsame Vokabular ist in der Regel in Form einer Taxonomie gegeben, die als Ausgangselemente (modelling primitives) Klassen, Relationen, Funktionen und Axiome enthält.

Im Fall unseres Forschungsvorhabens Simple Anno wurde eine zahnmedizinische Ontologie entwickelt. Als Taxonomie kam das vom Kooperationspartner Quintessenz Publishing entwickelte GlodMed zum Einsatz. 



Assoziationsregeln beschreiben Korrelationen zwischen gemeinsam auftretenden Dingen. Der Zweck einer Assoziationsanalyse besteht darin, Elemente einer Menge, wie z. B. einzelne Artikel eines Warenkorbs zu ermitteln, die das Auftreten anderer Artikel innerhalb einer Transaktion implizieren. Eine solcherart aufgedeckte Beziehung zwischen zwei oder mehr Artikeln kann dann als Regel der Form „Wenn Item(menge) A, dann Item(menge) B“ bzw. A → B dargestellt werden.

Ein typisches Anwendungsfeld sind die Zusammenhänge beim Einkauf, die sogenannte Warenkorbanalyse. Ein Beispiel: Bei 80 Prozent der Einkäufe, in denen Nudeln gekauft werden, werden auch Tomaten gekauft. Beide Produkte kommen in 8 Prozent der Einkäufe vor. Diese Erkenntnisse können im Crossmarketing genutzt werden, um weitere Produkte wie z.B. Olivenöl oder Paprika zu bewerben.
Die Vorraussetzung für Assoziationsregeln ist Domainenwissen.

Auch Suchverläufe kann man mit Assoziationsregeln analysieren. Dadurch entstehen beispielsweise Aussagen wie: Wenn ein Nutzer Bücher über Programmiersprachen wie z.B. "Java" sucht, kauft er mit großer Wahrscheinlichkeit auch Bücher über andere Programmiersprachen..

Predictive Analytics

Im Gegensatz zur Assoziationsregel, werden bei der predictive Analytics anhand gewonenen der Daten Vorhersagemodelle für die Zukunft erstellt. In der Statistik bezeichnet man als Prognosemodell oder Vorhersagemodell ein Modell, das den durch das Regressionsverfahren ermittelten funktionalen Zusammenhang verwendet, um eine Prognose der abhängigen Variablen zu liefern. Wenn zusätzliche x-Werte ohne zugehörigen y-Wert vorliegen, dann kann das angepasste Modell zur Vorhersage des Wertes von y verwendet werden.

Interessante sind predivtiv Analytics für Marketing oder Wartungsaufgaben von Maschinen. Nach dem Erwerb eines Produktes oder einer Maschine werden Vorhersagen über Wartungsintervalle oder Verbrauchsmaterialien anhand der getätigten Käufe ermittelt.

Im Data Mining werden verschiedene Modelle für die jeweiligen Aufgaben eingesetzt. Wir unterstützen sie bei der Auswahl und Bewertung der Modelle die oft auf komplexen Algorithmen beruhen, sodas sie für Anwender oft nicht verständlich sind.


Recherchieren, Wissen und Lernen


[j]search is a semantic search engine and DRM for the Single Point of Entry to everybody's personal Knowledge-Space in Dental Medicine. [j]search searches the web for content, especially scientific content, day by day and has interfaces to paid scientific content of several publishers. It finds relations between knowledge objects and combines them to an individual knowledge-space, based on the demand of every user. Content sources of [j]search are sorted in realms, that can be composed depending on the demant of the users of a website. Together with the “Relevancer” engine, a personalized profile for the user is generated. [j]search comes along with a powerful DRM that provides information about prices of paid content and performs a comparison with the individual subscriptions and rights of every user.


Product Highlights

  • interfaces to paid content of several publishers
  • interface to open source databases
  • integratable in websites and platforms
  • powerful backend for DRM
  • admin friendly UI for content curation
  • user friendly UI for faceted search
  • variable query types
  • ranked searching - best results return first


Integration in third-party applications

In addition to existing plug-and-play components for Liferay, which perform a wide variety of tasks as complete applications, customer specific applications can be developed with the help of [j]search on the basis of powerful Java or Python based interfaces. [j]search provides several high-level integration libraries (full featured Java and Python APIs) and a powerful REST API that allows a caller to extract features from passed content.



[j]search can be integrated in almost every website or platform via JSON, REST and SOAP interfaces. [j]search supports a virtually infinite type of custom metadata fields. [j]search has a broad range of metadata attributes, which enables the user to narrow the results according to its needs, e.g. based on attributes like the document type.

Using the [j]search search engine, several functionalities have been developed that work in the open source portal liferay, one of the most used portal technologies worldwide. For liferay portal, two [j]search portlets are available with the following functions and features. Similar functions and portlets could be integrated also in other systems.

MoreLikeThese (This)

Delivers information about similar documents. If termVectors are not stored, MoreLikeThese will generate terms from stored fields for example from Simple Anno. This method returns similar documents for each document in the response set.

Author/Expert Support

[j]search supports enhanced author support along multiple author databases. Information about authors will be aggregated and stored by [j]search. Currently there are more than 1.2 million scientific author and expert records available.

Distributed Search

[j]search - index can be split into multiple shards.

[j]search can query and merge results across those shards. This kind of decomposition of an index allows distributed storage on different servers and server locations. Indexes can be hosted on data storage in different places. Unlike traditional centralized search engines, work such as crawling, data mining, indexing, and query processing is distributed among several peers in a decentralized manner where there is no single point of control and no single point of failure.