{% extends "nopaque.html.j2" %} {% set full_width = False %} {% set roadmap = True %} {% block page_content %}
layersTokenisierung

Aufteilung eines Textes in Sätze und Wörter. Dies ist zur weiteren Verarbeitung notwendig.

 
layersLemmatisierung

Reduktion der Flexionsformen eines Wortes auf dessen Grundform.

 
layersPart-of-speech-Tagging

Kontext- und definitionsbezogene Zuordnung von Wörtern und Satzzeichen zu Wortarten.

 
layersEigennamenerkennung

Identifikation von Wörtern, die eine Entitätbeschreiben, wie Firmen- und Personennamen.

My corpora

search
Title Description Status
    {% endblock %}