Wegen Corona-Pandemie verschoben !

Den Termin am 16. Juni 2020 müssen wir leider zum Schutz der ReferentInnen und TeilnehmerInnen absagen.

Sobald ein geregelter Arbeitsalltag wieder vorhersehbar ist, werden wir einen Alternativ-Termin festsetzen.

 

DocMuc – Konferenz der Hochschule München
für Technische Kommunikation

München, 2020

Über die DocMuc

Veranstalter der Konferenz ist der Studienbereich Technische Redaktion und Kommunikation der Hochschule München. Unter der verantwortlichen Leitung von Frau Prof. Dr. Grünwied wirken maßgeblich Studierende des Studiengangs an der Planung und Durchführung der Konferenz mit. Die DocMuc Konferenz hat das Ziel, Hochschule und Industrie miteinander zu vernetzen. Die Zukunft fest im Blick, widmet sich die Konferenz den Trends und Neuheiten im Bereich der Technischen Dokumentation.

Diesjähriges Motto: Die Macht der Daten in der Technischen Kommunikation

Das Grundgerüst der Information: Daten

Die Integration von Informationen aus verschiedenen Datenquellen ist für die Technische Kommunikation ein essentielles Thema. Um den Informationsaustausch über verschiedene Schnittstellen hinweg zu erleichtern, muss die Datenaufbereitung und Datenübertragung weitestgehend standardisiert werden. Medial aufbereitete Inhalte lassen sich am effizientesten mit dem Zugriff auf eine hochwertige Datenbasis umsetzen. Um eine „intelligente“ Datenbasis zu schaffen, steht die Branche vor der Frage, welche Technologien und Methoden eingesetzt werden sollen.

Datennutzung in Medien

Ein großer und bedeutender Teil in der Technischen Kommunikation stellen audiovisuelle Medien und deren Usability dar. Daher ist es wichtig, sich mit der Datennutzung für multimediale Informationsprodukte zu befassen. Wie sieht die Zukunft von Videos, 3D-Animationen, AR und VR im Zeitalter der „Daten“ aus? Wie können diese Medien weiterentwickelt werden, um einen noch höheren Nutzen beim Anwender zu erwirken? Welche Rolle werden aufwändig gestaltete E-Learnings in der Technikkommunikation zukünftig haben?

Intelligente Weiterverarbeitung von Daten

Künstliche Intelligenz ist ein immer größer werdendes Feld und in der Übersetzungsbranche schon zum Großteil angekommen. Können auch andere Bereiche der Technischen Dokumentation von dieser Technologie profitieren? Es gilt herauszufinden, inwieweit sich Prozesse automatisieren lassen können. Der rechtliche Aspekt spielt dabei eine große Rolle. Wer haftet für Schäden, wenn die KI falsche Informationen liefert oder im Umkehrschluss: Wie muss die Qualitätssicherung aussehen?

Vortragsformate – Beschreibungen

 

Vortrag

Die klassische Art des Vortrags ist eine der beliebtesten Formen für Präsentationen bei Konferenzen. Neben einer Rednerin/einem Redner, die/der einen bestimmten Sachverhalt präsentiert oder über ein bestimmtes Thema Wissen vermittelt, werden die Inhalte mithilfe von z.B. einer PowerPoint Präsentation oder Plakaten verdeutlicht und anschaulich dargestellt. Im Anschluss an den Vortrag ist eine moderierte Fragerunde und Diskussion mit den Teilnehmern vorgesehen.

45 Min einschließlich Diskussion

Impulsvortrag

Eine abgewandelte Form des klassischen Vortrags ist der Impulsvortrag. Ein Impulsvortrag hat die Funktion das Publikum auf ein bestimmtes Thema einzustimmen und zur Meinungsbildung anzuregen. In einer Session lassen sich entweder zwei  Impulsvorträge verbinden (zum Beispiel zu kontroversen Themen) oder ein Impulsvortrag wird einem  Fishbowl vorangestellt.

15 Min

Podiumsdiskussion

Experten kommen zum Gespräch vor einer größeren Zuhörerschaft zusammen, um Ihre Auffassungen darzustellen, zu vergleichen und um gemeinsam einen Mehrwert zu erzeugen. Dabei kommt es zum Austausch zwischen Experten und Zuhörern. Formal wird diese Diskussion durch eine/n Moderator/in geleitet.

45 Min

Fishbowl

Experten kommen in einem Gesprächskreis zusammen, um direkt mit unterschiedlichen Zuhörern in einem Austausch Wissen zu teilen und einen Mehrwert zu erzeugen. Die Experten sitzen dabei im Zentrum des Diskussionskreises. Zuhörer kommen für Beiträge ebenfalls temporär in das Zentrum, verlassen dieses aber wieder nach der Diskussion zu ihrer Wortmeldung. Die Experten bleiben dauerhaft auf Ihren Plätzen. Dem Fishbowl kann ein Impulsvortrag mit einer Dauer von 15 Minuten vorangehen, dann verkürzt sich der Fishbowl auf 30 Minuten.

45 Min

Speed Geeking mit Studierenden

An mehreren Tischen werden jeweils kleine Gruppen von 4 bis 6 Personen gebildet. In jeder Gruppe stellt ein/e Studierende/r ein bestimmtes Thema oder eine fachliche Stellungnahme innerhalb von 4 Minuten vor. Anschließend haben die Teilnehmer 6 Minuten Zeit, Fragen dazu an den/die Studierende/n zu stellen. Nach den 10 Minuten rotieren die Teilnehmer weiter zum nächsten Tisch.

45 Min

Beschreibung der Beiträge

Eröffnungsvortrag von Frau Prof. Sissi Closs

Daten und Technische Kommunikation - von der Daten-Wiedergabe zur Daten-Analyse

Herkömmlich und bis heute ist eine Hauptaufgabe der Technischen Kommunikation, Daten über Produkte zu sammeln, aufzubereiten und nutzertauglich in Form von verständlichen Informationen wiederzugeben. Die Sammlung der Daten und ihre korrekte Wiedergabe spielen dabei eine zentrale Rolle und verursachen einen erheblichen Aufwand. Mit wachsender Digitalisierung werden Programme diese Aufgaben übernehmen. Andererseits wächst die Menge an Daten in bisher ungekanntem Umfang. Doch Big Data ist nicht einfach die Verarbeitung riesiger Datenmengen sondern soll insbesondere zur Gewinnung und Nutzung entscheidungsrelevanter Erkenntnisse aus unterschiedlichen Datenquellen führen und trotz zunehmender Komplexität von Datenquellen- und Formaten Menschen wie Maschinen einfache Zugänge zu digitalen Informationen aus unterschiedlichsten Quellen eröffnen. Dazu ist eine tiefgehende Datenkompetenz gefragt –  die Fähigkeit, in Daten zu lesen, mit ihnen zu arbeiten, sie zu analysieren und auf ihrer Basis zu argumentieren.

Die technische Kommunikation wird ihre bisherige Schnittstellenfunktion ausbauen und verlagern, Möglichkeiten und Fragestellungen für den Einsatz von Werkzeugen im Bereich Analytics und KI mitentwickeln, die Ergebnisse prüfen, bewerten und unter Nutzung der Medien verständlich und effektiv kommunizieren, damit sie die menschliche Kreativität und Entscheidungsfindung unterstützen.

Beiträge zum Thema „Das Grundgerüst der Information: Daten“

In diesem Schwerpunkt sind klassische Vorträge, Impulsvorträge sowie eine Podiumsdiskussion vorgesehen.

Wenn der Auftrag seine Anleitung selbst generiert
Kurzbeschreibung

Eine der Herausforderungen heutiger Technischer Redaktionen liegt in der Automatisierung der Dokumentationserstellung. Die Bandbreite der Möglichkeiten reicht dabei von automatisierten Teilaufgaben bis zur vollständigen Prozessautomation. Denn Kosten‐ und Zeitdruck, Qualitäts‐ und Effizienzaspekte spielen auch in der Technischen Kommunikation eine zunehmend größere Rolle. Redaktionssysteme (CCMS) sind für die Umsetzung dieser Forderungen eine unabdingbare Voraussetzung. Doch erst durch die Vernetzung mit anderen Systemen der IT‐Infrastruktur eines Unternehmens lassen sich die technischen Potenziale eines CCMS vollständig erschließen. Weitere, wesentliche Voraussetzungen sind eine saubere Datenbasis, klare Strukturen und gut organisierte Prozesse.

Der Vortrag stellt ein Beispiel aus der Praxis eines Maschinenbauunternehmens vor. Dort sollte die Erstellung kundenspezifischer Dokumentationen automatisiert werden, um durch die eingesparten zeitlichen und personellen Kapazitäten einen Spielraum für Optimierungen und Weiterentwicklungen zu eröffnen. An dem Beispiel wird deutlich, dass durch das Zusammenwirken der Abteilungen Konstruktion, Vertrieb, IT, Technische Redaktion, Datenmanagement und dem Systemanbieter, durch die Standardisierung in mehreren Bereichen und durch die Kopplung verschiedener Systeme die automatisierte 1:1‐Dokumentationserstellung keine Wunschvorstellung bleiben muss.

Über die Referentin: Kirsten Schröder (tecteam)

Nach dem Studium der Linguistik und Kommunikationswissenschaft absolvierte sie 1992 eine formale Ausbildung zur Technischen Redakteurin. Danach war sie mehrere Jahre bei einem Maschinenbauunternehmen verantwortlich für die Technische Dokumentation, arbeite anschließend bei verschiedenen Dienstleistungsunternehmen und auch freiberuflich als Technische Redakteurin. Erste Erfahrungen mit der Einführung von Redaktionssystemen sammelte sie bereits 2003. Seitdem war sie in verschiedenen Projekten beratend an der erfolgreichen Einführung von Redaktionssystemen (CCMS) beteiligt. Bei tecteam begleitet sie seit 2011 Unternehmen in der Einführungsphase und nachfolgenden Projekten im Bereich Informationsmanagement. Ihr besonderes Interesse gilt dabei den konzeptionellen Rahmenbedingungen, dem Change Management sowie der Spezifikation von Automatisierungsprozessen.

Multilinguale Serviceanwendungen – Möglichkeiten der maschinellen Übersetzung in digitalen Assistenzsystemen

 

Kurzbeschreibung

Assistenzsysteme ermöglichen es, Service-Informationen zugänglicher und interaktiver zu gestalten. Verbunden mit einem CMS können neben festgelegten Informationen auch Inhalte flexibel erstellt, aktualisiert und erweitert werden. Maschinelle Übersetzung kann ein Weg sein diese Inhalte schnell an mehrere Sprachen anzupassen und neben den festgelegten Informationen auch individuelle Informationen in der jeweiligen Landessprache darzustellen. Der Vortrag zeigt, wie so ein Konzept aussehen kann und welche Herausforderungen sich dabei ergeben.

Über den Referenten: Michael Born (cognitas)

Michael Born arbeitet seit Juli 2016 als Übersetzungsmanager bei der cognitas. Gesellschaft für Technik-Dokumentation mbH. Neben der Steuerung von Übersetzungsprojekten kümmert er sich um die Betreuung der japanischen Kunden, berät die Redakteure bei sprachlichen Fragen und rund um die Entwicklung und konzeptionelle Weiterentwicklung von Übersetzungsprozessen.

Knowledge Graphen in Theorie und Praxis
Kurzbeschreibung

Laut Gartner sind Knowledge Graphen „On the Rise“. Aus Sicht eines Hypes heißt das, sie stehen kurz vor dem Höhepunkt, damit noch vor dem Absturz aus Enttäuschung und sind weit davon entfernt, produktiv einsetzbar zu sein. In der Wirklichkeit gibt es jedoch die ersten Vorreiter, die Knowledge Graphen einsetzen.

In diesem Vortrag beschäftigen wir uns mit den folgenden Themen:

  • Was sind Knowledge Graphen?
  • Wie sehen sie im praktischen Einsatz aus, und wofür können wir sie verwenden?
  • Anforderungen an Tools?

Ein Knowledge Graph entsteht nicht von heute auf morgen, sondern ist das Ergebnis einer gezielten Entwicklung weg von impliziten und/oder divergierenden verteilten Metadaten hin zu einem übergeordneten Modell. Die daraus resultierende Harmonisierung ermöglicht es uns, einem Nutzer abhängig von seiner Rolle und Aufgabenstellung gezielt Informationen anzubieten, deren Zusammenhang ihm so bisher nicht bekannt oder verfügbar war.

Über den Referenten: Karsten Schrempp (PANTOPIX)

Karsten Schrempp studierte Mathematik und Philosophie an der Eberhard-Karls-Universität Tübingen. Inzwischen liegen mehr als 20 Jahre Selbständigkeit in und mit verschiedenen namhaften Unternehmen im Bereich der Technische Kommunikation hinter ihm. 2012 gründete er PANTOPIX, um konsequent seinen Weg der Topic-orientierten und wissensnetzbasierten Informationserfassung und -bereitstellung in Kundenprojekten umzusetzen. Dabei verfolgt er zwei Ziele: Im Hintergrund benötigt jedes Projekt eine klare und präzise Modellierung. Im Vordergrund muss eine für jeden Beteiligten, unabhängig davon, ob er Redakteur auf der Erfassungsseite oder Servicetechniker auf der Nutzerseite ist, handhabbare Lösung entstehen. Zu diesen Lösungen führt er seine Kunden in spannenden und agilen Projekten.

Datenintegration im Redaktionsprozess

 

Kurzbeschreibung

Immer mehr von meinem Unternehmen betreute Redaktionen übernehmen Daten aus anderen Datenverwaltungssystemen in ihre redaktionellen Inhalte. Produkt- und Materialstammdaten, Preisinformationen, oder im Softwarebereich Oberflächentexte und Fehlermeldungen lassen sich im CMS einbinden und als Referenzen verwalten, wobei sie ihre semantische Bedeutung durch den gesamten Redaktionsprozess bis ins Informationsprodukt weitertragen, wo sie als Grundlage für digitale Mehrwerte zur Verfügung stehen.

Der Vortrag zeigt anhand von Projektbeispielen, wie Inhalte, die in anderen Systemen im Unternehmen entstehen und gepflegt werden, in den Redaktionsalltag einfließen und hier ganz unterschiedliche Mehrwerte erzeugen. Auch ohne dass bereits ein KI-gesteuerter Chatbot darauf wartet, mit semantischen Informationen versorgt zu werden, konnten unsere Kunden eine ganze Reihe von Redaktionsaufgaben deutlich straffen und Mehrwerte in den Informationsprodukten generieren. Das Verfahren funktioniert gleichermaßen über Branchen hinweg und für ganz unterschiedliche Datenklassen. Positive Ergebnisse finden sich für Redaktionsarbeit, Standardisierung, Qualitätssicherung, Übersetzung und die Zusammenarbeit mit „Datenlieferanten“ in anderen Abteilungen. Unternehmensweit einheitlich klassifizierte, semantische Inhalte sind zudem Grundvoraussetzungen für die digitale und integrierte Bereitstellung von Produktinformationen und damit eine unersetzliche Basis für intelligente Informationssysteme. Ihre Bedeutung auch für moderne KI-Lösungen sollte nicht unterschätzt werden, will man Erzeugnisse à la Karl Klammer 4.0 vermeiden.

Über den Referenten: Edgar Hellfritsch (doctima GmbH)

Edgar Hellfritsch ist Diplom-Informatiker, Experte für XML, SCHEMA ST4 und mobile Doku, Mitglied bei tekom und UPA, Veteran der Browserkriege und Geschäftsführer der doctima GmbH. Seine beiden Kernthemen sind das Gestalten von Redaktionsprozessen und das Entwickeln von digitalen Informationslösungen. Im Detail bedeutet das, dass er sich besonders gut mit spitzen Klammern auskennt, aber auch, dass er ein gutes Gespür für die Bedürfnisse von Redaktion und Endanwendern besitzt und in der Lage ist, beide Zielgruppen mit eleganten und zielführenden Lösungen auszustatten. Der Themenbereich um Datenintegration und Schnittstellen ist für ihn Tagesgeschäft.

Daten automatisch intelligent und beliebig verteilbar?
Kurzbeschreibung

Moderne Anwendungen sind auf intelligente Informationen angewiesen. Vom Service-Assistenten bis zum Kundendienst-Chatbot sind Struktur, Metadaten und Qualität entscheidend für den erfolgreichen Einsatz datengetriebener Prozesse. Dem hinzu kommen Unternehmen durch Austauschstandards, wie iiRDS und VDI2770 in den Zwang, Produktinformationen digital und standardisiert auszuliefern. Grundlage bildet eine passende Semantik und Klassifikation der erfassten Inhalte. Die hierfür notwendige Aufbereitung der Dokumentation ist jedoch meist im vollen Umfang manuell nicht zu bewältigen. 

Weitere Herausforderungen des modernen Informationsmanagements sind die Integration verschiedener Datenquellen und die Konsolidierung von Metadaten. Mit Hilfe effizienter Methoden und Technologien können Inhalte unterschiedlicher Datenquellen einfach und schnell mit Metadaten versehen und professionell zu einer konsistenten Gesamtdokumentation aufbereitet werden. So können beispielsweise durch den gezielten Einsatz von künstlicher Intelligenz für arbeitsintensive Arbeiten im redaktionellen Umfeld und zur Qualitätssicherung im Content Management entsprechende Anwendungen in redaktionelle Prozesse eingebunden werden. Durch flexible Schnittstellen können auch herstellerunabhängig die bestehende Systemlandschaft erweitert werden. 

Reicht die Datenbasis der Inhalte aus Redaktionssystemen oder sonstigen Legacy-Dokumenten nicht aus, können diese automatisch analysiert und Metadaten vergeben werden. Nach manueller Prüfung stehen die aufbereiteten Inhalte – nun ausreichend intelligent – bereit für Content-Delivery-Prozesse. Durch den sinnvollen Einsatz von Austauschformarten wie iiRDS oder VDI2770 können nun die Daten auf gewünschte Systeme und Anwendungen verteilt und von diesen ausgelesen und zielgruppengerecht aufbereitet werden. 

Im Vortrag wird anhand von Projektbeispielen und erfolgreich realisierten Integrationen gezeigt, welches Potenzial in einem standardisierten Informationsaustausch liegt sowie der effiziente Einsatz von Methoden und Werkzeuge vorgestellt, um u. a. mit künstlicher Intelligenz eine „intelligentere“ Datenbasis zu schaffen. Dies beinhaltet den Einsatz von Semantik sowie Metadaten- und Modularisierungskonzepten in Redaktionssystemen, mögliche Exportformate und welche Probleme dabei gelöst werden. Denkbare Architektur-Varianten werden vorgestellt, um verschiedene Systeme erfolgreich miteinander zu integrieren. Auch immer wieder auftretende Fallstricke werden angesprochen und gezeigt, wie diese zu vermeiden sind. 

Über den Referenten: Stephan Steurer (ICMS GmbH)

Experte für bereichsübergreifende Klassifikationskonzepte und semantische Modelle in der Technischen Dokumentation als Basis für effizientes Content-Management und Content-Delivery. Mitglied der tekom und des iiRDS-Konsortiums. Gründer und Geschäftsführer der ICMS GmbH und Mitgründer der plusmeta GmbH. 

Beiträge zum Thema „Datennutzung in Medien“

In diesem Schwerpunkt finden klassische Vorträge, Impulsvorträge sowie Speed Geeking statt.

Über Publishing 4.0 – Out of the Box
Kurzbeschreibung

Der Beitrag bewegt sich [thematisch] in folgender Aussage des Münchner Nobelpreisträgers Werner Heisenbergs:

„Mit der scheinbar unbegrenzten Ausbreitung ihrer materiellen Macht [Print] kommt die Menschheit in die Lage eines Kapitäns, dessen Schiff so stark aus Stahl und Eisen gebaut ist [“Bleiletter”-Branche], daß die Magnetnadel seines Kompasses nur noch auf die Eisenmasse des Schiffes zeigt, nicht mehr nach Norden [Publishingwelten]. Mit einem solchen Schiff kann man kein Ziel mehr erreichen; es wird nur noch im Kreis fahren [Digitalklone] und daneben dem Wind und der Strömung ausgeliefert sein [Wandler]. Aber um wieder an die Situation der modernen Physik zu erinnern: Die Gefahr besteht eigentlich nur, solange der Kapitän nicht weiß, daß sein Kompaß [Printfokus] nicht mehr auf die magnetischen Kräfte der Erde reagiert. In dem Augenblick, in dem Klarheit geschaffen ist, kann die Gefahr schon halb als beseitigt gelten. Denn der Kapitän, der nicht im Kreise fahren, sondern ein bekanntes oder unbekanntes Ziel erreichen will, wird Mittel und Wege finden, die Richtung seines Schiffes zu bestimmen. Er mag neue, moderne Kompaßarten [Navigatormotiv] in Gebrauch nehmen, die nicht auf die Eisenmasse des Schiffes reagieren, oder er mag sich, wie in alten Zeiten, an den Sternen orientieren.“

Gefragt ist ein Navigator zum Bewegen im Digitalraum. Mit Blick auf das Publishing wurde ein solcher im fünfjährigen Verbundprojekt für und mit der Praxis gebaut und erprobt. Methodisch ist Publishing 4.0 – Out of the Box der kompakte Bildungstransfer des Verbundprojekts Publishing 4.0, aus dem über Co-Creation ein Innovationsnetzwerk Integrated Publishing Environment (IPE) für gemeinsame Publishing 4.0-Unternehmungen wächst.

Der Beitrag führt praxisorientiert in das Integrationskonzept zur Digitalisierung im Publishing ein. Ziel ist ein Verständnis von und Möglichkeiten zur Gestaltung von Publishing in der vierten Entwicklungsstufe. Dafür wird über den Praxisnavigator ein neues Denken in Möglichkeiten und Grenzen der Digitalisierung fundiert aufgebaut. Dazu notwendige Digitalexpertise-Grundlagen zur Ausgestaltung auf der Lernplattform „Scientific Publishing“ durchdacht und eingeübt. Methodisch wird ein an der Hochschule München selbst sowie an der Universität Erlangen eingesetztes kombiniertes Methodenformat angewendet.

Ein Impulsvortrag leitet zu den Use Cases Geschäftsprozess-, Daten-, Transformationsmanagement ein, jeweils unterstützt von Live-Demonstrationen sowie Postern zu Publishing Unternehmungen 4.0 aus Lehrveranstaltungen. Den Abschluss bildet eine Mini-Podium Runde über den Bildungstransfer Publishing 4.0 – Out of the Box und das Innovationsnetzwerk Integrated Publishing Environment (IPE).

Material und Informationen unter: http://plattform-p40.de

Über den Referenten: Jörn Fahsel (Universität Erlangen)

Wissenschaftlicher Mitarbeiter für Digital Publishing und Digital Humanities seit 2013 an der FAU Erlangen, seit 2018 an der Hochschule München Lehrbeauftragter für Informationssysteme, davor 13 Jahre als Prozessberater im ITK und Sozialumfeld sowie als Dozent und Ausbilder für Fachinformatik tätig. Der Arbeitsschwerpunkt liegt auf Sozio-Technischer Transformation, aktuell aus Sicht der Digitalisierung im Publishing 4.0 Branchenkonzept.

Better Safe Than Sorry - wie man für Arbeitssicherheit designt, Gefahren neu kommuniziert und was „smarte“ Schutzausrüstung damit zu tun hat
Kurzbeschreibung

Trotz hoher Sicherheitsvorschriften haben Unfälle an Hochrisiko-Arbeitsplätzen wie in der Stahlindustrie oft tödliche Folgen. Neben den Bedingungen am Arbeitsplatz spielt hier die zugrundeliegende Sicherheitskultur eine wichtige Rolle: Herunterspielen von Schmerzen, Ignorieren der Schutzausrüstung und Nichtbefolgen von Vorschriften sind nur einige Probleme in solch oft männlich dominierten Arbeitsumgebungen.

 

Wie man diese Probleme mit IoT, Wearables und Co angehen kann, wurde im Forschungsprojekt „SafeIoT“ in Schweden untersucht. Der Vortrag gibt einen Einblick in das Projekt und dessen Anwendungskontext, Iterationen und Prototypen entlang eines nutzerzentrierten Designprozesses. Dabei wird die Fragestellung aufgegriffen, wie ein Stahlarbeiter seine Schutzausrüstung als persönliches Alarmsystem nutzen kann und welche Szenarien in der Zukunft denkbar sind. Des Weiteren wird aufgezeigt, wie man mit einfachen Methoden und provokanten Designideen zur Sicherheitskultur alle Stahlarbeiter an Bord bekommt und zum Diskutieren anregt – denn nur deren Akzeptanz kann eine innovative Technologie wie E-textiles zum Erfolg führen und letztendlich die Sicherheit am Arbeitsplatz erhöhen.

Über die Referentin: Miriam Gaissmaier (ATOSS Software AG)

Miriam Gaissmaier entdeckte ihre Leidenschaft für Usability und Mensch-Maschine-Interaktion während ihres Studiums der Technischen Redaktion und Kommunikation an der Hochschule München, das sie 2016 abschloss. Nach einer Tätigkeit als klassische technische Redakteurin nahm sie ein Masterstudium in „Human Computer Interaction and Design“ an der Universidad Politécnica de Madrid und am KTH Royal Institute of Technology in Stockholm auf. Dort spezialisierte sie sich auf Design Research im Bereich Arbeitssicherheit und die Gestaltung von sicherheitskritischen Systemen mit Hilfe von IoT-Technologien. Ihre Masterarbeit mündete in einen Forschungsbeitrag auf der ACM TEI (Tangible, Embedded and Embodied Interaction) Konferenz in Sydney 2020. Seit September 2019 ist Miriam Produktmanagerin Usability und User Experience bei der ATOSS Software AG in München.

ARe we ready?
Kurzbeschreibung

Augmented Reality (AR) in der Technischen Dokumentation – immer noch eine teure Fiktion? Wir werfen einen kritischen Blick auf die neue mediale Ausprägung der Wartungsdokumentation und auf den Weg aus der Entwicklungsumgebung hin zur Serie.

  • Welche Möglichkeiten der Erstellung und der Wiedergabe von AR-Anwendungen gibt es aktuell?
  • Welche Anforderungen werden dadurch an die Daten aus dem Redaktionssystem und der Konstruktionsabteilung gestellt?
  • Wie können Hürden wie Bedenken zur Datensicherheit überwunden werden?
  • Ist eine manuelle Umsetzung von AR-Anwendungen noch notwendig oder kann der Schritt in die Automatisierung jetzt schon bewältigt werden?

Dieser Vortrag geht auf die genannten Fragen ein und richtet sich dabei an Einsteiger und Interessierte zu dem Thema AR in der Technischen Dokumentation.

Über die Referenten Matthias Kwade und Johannes Wagner (Hochschule München)

Matthias Kwade und Johannes Wagner beschäftigten sich zum Ende ihres Studiums der Technischen Redaktion und Kommunikation im Rahmen ihrer Abschlussarbeiten intensiv mit dem Thema Augmented Reality in der Technischen Dokumentation. In zwei großen Unternehmen analysierten sie bestehende Ansätze zur AR-Dokumentation und konzipierten dahergehend zukünftige Erstellungswege.

Effiziente Erstellung von videobasierten Anleitungen - Wie wird aus der Videoproduktion ein Gewerk?
Kurzbeschreibung

How-To-Videos sind gefragter denn je. Zur Behebung von Bedienproblemen suchen Nutzer vermehrt nach Hilfestellungen in Form von Bewegtbildern. Aufgrund dieser Entwicklung sind zunehmend nutzergenerierte Videos im Internet zu finden. Diese sind oftmals weder didaktisch aufbereitet, noch an die gewünschte Zielgruppe ausgerichtet. Auch technische Redaktionen haben diesen Trend bereits erkannt und stellen sich diesem. Jedoch wird anders als bei der Erstellung von bspw. Betriebsanleitungen reagiert statt agiert. Hier werden Unternehmen selten aktiv und produzieren aktiv nachgefragte Vorgänge und Funktionsweisen per Video. Da diese in ihrer Kostenstruktur noch immer recht intransparent wirken und es in der Medienbranche als üblich gilt fertige Gewerke einzukaufen. Einzelne Kostensegmente werden mit Pauschalen zu größeren Teilstücken bzw. Projekten zusammengefasst und die Herkunft der Kosten bei der Erstellung von Videos verliert ihre Transparenz.

Dieser Vortrag erläutert Herausforderungen bei der Erstellung von How-To-Videos und wie Sie es schaffen aus schon vorhandenen Ressourcen eine kosteneffiziente und transparente Erstellung zu ermöglichen. Beispiele aus der technischen Dokumentation geben hier interessante und realitätsnahe Einblicke.

Über den Referenten: Fabio Rasp (MR. duc)

Schon während seines Studiums der Technischen Redaktion und Kommunikation an der Hochschule München konnte Herr Rasp tiefgreifende Erfahrungen in den Bereichen Videoproduktion, Marketing und den internen Abläufen einer technischen Redaktion sammeln. Seine Abschlussarbeit mit dem Titel: „Entwicklung eines Konzepts für videobasierte Anleitungen für die Technische Redaktion am Beispiel BMW Motorrad“ legte den Grundstein für seine Selbstständigkeit. Gemeinsam mit Herrn Christian Mennel gründete er die MR. duc UG und berät seither Firmen in den Bereichen technische Redaktion und User-Experience.

Speed Geeking mit Studierenden

Zum Schwerpunkt „Datennutzung in Medien“ findet in dieser 45-minütigen Session ein Speed Geeking statt. Studierende präsentieren an mehreren Thementischen ihre Thesen zur Zukunft von Videos, 3D-Animationen, AR und VR sowie E-Learning. Aspekte wie Nutzerbezug, sinnvolle Kontexte, effiziente Erstellung sowie Nutzenoptimierung stehen dabei im Vordergrund.

Die Teilnehmer sind herzlich eingeladen, in eine Diskussion mit den zukünftigen technischen Redakteuren einzutreten und ihre Erfahrungen aus der Praxis auszutauschen.

Beiträge zum Thema „Intelligente Weiterverarbeitung von Daten“

In diesem Schwerpunkt finden klassische Vorträge, ein Impulsvortrag sowie ein FishBowl statt.

Künstliche Intelligenz versus Biologische Intelligenz: Was KI in absehbarer Zeit nicht besser können wird, als Menschen und wo die Job-Chancen liegen
Kurzbeschreibung

Fragen Sie mal Siri: „Was hängt an der Wand, macht Tick Tack und wenn’s runterfällt, ist die Uhr kaputt?“ Natürlich bekommen Sie ohne Zögern eine Antwort: „Leider kann ich keine Uhren verwalten. Du kannst das in der Uhren-App tun.“ Diese Antwort enthält zwei Aussagen, und beide sind zutreffend. Dennoch scheinen sie uns merkwürdig wenig zu unserer – zugegebenermaßen ebenso merkwürdigen – Frage, in der wir uns auch noch verplappern und die Lösung des Rätsels vorwegnehmen, zu passen. Die Sprachverarbeitung von Kindern im Vorschulalter hat dagegen kei­nerlei Schwierigkeiten mit der Frage: Spätestens bei „Tick Tack“ wissen sie, worum es geht und bei „Uhr“ fangen sie an zu kichern, weil klar ist, dass die Sprecherin ein Schussel ist. Siris Problem: Sie nimmt uns ernst. Kompromisslos und Wort für Wort. In dem Beispiel geht es nicht darum, in den Chor der „Siri-“, „Alexa-“, „Bixby-“ oder „Google-Assistant-“Nörgler einzustimmen, die sich über die allzu offensichtlichen Unzulänglichkeiten maschineller Sprachverarbeitung in unserem Alltag mokieren. Es geht um die Frage, was kön­nen wir Menschen, was kann biologische Intelligenz immer noch – und vermutlich auch auf absehbare Zeit – besser als künstliche Intelligenz?

Über die Referentin: Prof. Dr. Anke van Kempen (Hochschule München)

Anke van Kempen ist Professorin für Unternehmenskommunikation am Studiengang „Technische Redaktion und Kommunikation“ der Hochschule München. Die Expertin für Innovations-, Veränderungs- und Führungskommunikation ist fasziniert von der Frage: Wie kommen Wissenschaft, Forschung und der Rest der Welt miteinander ins Gespräch und wie entsteht aus diesem Gespräch Neues? Diese Frage steht auch im Mittelpunkt ihres aktuellen Forschungsprojekts: „Agreed to differ und trotzdem erfolgreich: Wie Innovationen im Zusammenspiel von Wirtschaft, Wissenschaft, Politik/Verwaltung und Zivilgesellschaft entstehen.“ Vor ihrer Berufung an die Hochschule München war sie unter anderem verantwortlich für die Wissenschafts- und Unternehmenskommunikation der Max-Planck-Gesellschaft und als selbstständige Beraterin und Executive Coach in den Bereichen Automotive, IT, Biotech und Medizin tätig.

Daten als zentrales Element für neue KI basierende Funktion in der Autoindustrie

 

Kurzbeschreibung

Seit der Erfindung des Automobils vor mehr als 100 Jahren befindet sich die Autoindustrie aktuell in einer entscheidenden, strukturellen Veränderung. Die treibenden Themen sind dabei:

  • neue Mobilitätskonzepte (Car-Sharing)
  • das Connected-Car
  • die Elektrifizierung der Antriebe und
  • das vollautonome Fahren

Der gemeinsame Faktor aller Veränderungen ist die Digitalisierung und damit im Kern unter anderem auch die durchgängige Verfügbarkeit von Daten in allen betroffenen Ebenen. Der Erfolg der Fahrzeughersteller und Mobilitätsanbieter wird durch die konsequente Nutzung aller verfügbaren Daten in Form von Erkenntnisgewinn durch Analytics, der verbesserten Entscheidungsfindung und Orientierung im höchst dynamischen Marktumfeld, aber auch durch die Anwendung in verbesserten Entwicklungs-, Einkaufs-, Logistik-, Produktions- und Vertriebsprozessen bestimmt. Zusätzlich ist die Anwendung der neuen Technologien zum direkten Kundennutzen durch neue Prozesse, wie z. B. predictive maintenance und auch verbesserte Produkte- und Bedienkonzepte, wie z. B. in Form von Dialog geführten Sprachbedienungen von Fahrzeugen, zwingend notwendig. Völlig neue Chancen ergeben sich außerdem durch die Aktualisierung und durch die individuelle Anpassung von Funktionen per remote Software update im Lauf des Fahrzeuglebens.

Der Vortrag zeigt anhand konkreter Praxisbeispiele die Bedeutung dieser Themen auf. Zunächst wird darauf eingegangen, welche Daten heute im Auto existieren, wie diese gesammelt, anonymisiert und verarbeitet werden und wie diese im Fall von BMW effektiv organisiert werden. All dies geschieht neben der regulären Linienorganisation heute auch in Form der sog. „Analytic-WG“, über die sich alle Mitarbeiter, die mit Daten intensiv zu tun haben, inhaltlich austauschen und so für eine höhere Transparenz, Kontinuität und Agilität sorgen. Ein bis zu vier Mal im Jahr erscheinendes „Analytics Magazin“ klärt entsprechend auf und hilft die Hierarchieebenen horizontal und vertikal bestmöglich zu vernetzen, mit dem Ziel, die Nutzung der Daten zu maximieren. Die Anwendung einer Ende-zu-Ende Datenverarbeitung für die online Sprachverarbeitung im Auto wird am Beispiel des BMW Intelligent-Personal-Assistant (BMW-IPA) aufgezeigt. Den Insassen wird dabei eine Vielzahl an Dialogen bereitgestellt, um damit alltägliche, aber auch seltenere Bedienschritte einfacher, intuitiver, sicherer und vor allem bequemer zugänglich zu machen. Den zunehmenden Zuspruch der Kunden zu diesen neuen Möglichkeiten im Auto zeigt die Analytics der Felddaten auf. Verfahren der Künstlichen Intelligenz (KI) dienen dabei, das Sprachverständnis (speech2text) aber auch das kognitive Verständnis entscheidend zu verbessern. Durch die ständige Beobachtung der Bedienungsmuster im Feld, wird die „Intelligenz“ des BMW-IPA weiter trainiert und für neue Themengebiete erweitert.

Über den Referenten: Dr. Johann Prenninger (Analytics und Machine Learning BMW Connected Car, München)

Dr. Johann Prenninger, studierte Elektrotechnik und Industrielle Elektronik an der Technischen Universität in Wien. Dort promovierte er im Gebiet der industriellen Robotik 1993. Bis 1999 war er Geschäftsführer einer Forschungsfirma in Steyr mit dem Fokus auf Produktionsprozesse, Fertigungsautomatisierung und Qualitätssicherung. Ab dem Jahr 2000 war er im BMW Werk Steyr verantwortlich für die Logistik Planung. 2004 wechselte er in die Entwicklung Elektrik / Elektronik der BMW AG in München mit der Verantwortung für das Kompatibilitätsmanagement des Fahrzeugbordnetzes. Seit 2006 beschäftigt er sich mit Fahrzeugdaten im Bereich Aftersales für die Diagnose und Programmierung der Autos. 2014 wechselte er in den neuen Bereich Digitalisierung, wo er in Zusammenarbeit mit der IT das Thema BigData und Analytics aufgebaut hat. Seit 2019 ist er in der sog. Connected Company bei BMW für das Thema Maschine Learning und Künstliche Intelligenz mit Fokus auf den BMW Intelligent Personal Assistant zuständig.

Einführung in NLP am Beispiel von rasa.ai

 

Kurzbeschreibung

 Wie verstehen Chatbots heutzutage die menschliche Sprache? Was könnte KI in Verbindung mit Chatbots bedeuten? Lernen Chatbots wirklich selbstständig? Kann man Software trainieren? Der Vortrag bringt Antworten auf diese Fragen und fokussiert sich dabei auf die NLP-Technologie am Beispiel des OpenSource-Frameworks Rasa.ai. Das Framework verspricht eine Lösung, eine eigene NLP-Engine zu betreiben und damit Unternehmen einen höheren Datenschutz zu bieten. Der Beitrag richtet sich an Einsteiger und wird anhand von praktischen Beispielen begleitet. 

Über den Referenten: Alexander Hoffmann (COOK and CODE)

Alexander Hoffmann ist Inhaber von COOK and CODE und berät und schult namhafte Unternehmen zu digitalen Themen. Der Einsatz von Chatbots zählt zu seinen persönlichen Schwerpunkten. An der Hochschule München verantwortet er als Lehrbeauftragter die Vorlesung für Technische Informatik im Studiengang Technische Redaktion und Kommunikation. 

Terminologie als wichtigste Datenbasis von Informationen – Concept-Maps als wichtigste Visualisierung und Grundlage der Weiterverarbeitung

 

Kurzbeschreibung

Terminologie war viele Jahre ein „nice to have“-Thema und separat von der Technischen Redaktion angesiedelt. Inzwischen wird zunehmend offensichtlich: Begriffsbenennungen, also „Termini“, bilden das Herzstück jeder technischen Kommunikation. Terminologie muss zu einer Kernarbeit für Technische Redakteure werden.

Der Vortrag klärt die Frage, warum Terminologie speziell in Bezug Industrie 4.0 Szenarien und bei KI (Künstlicher Intelligenz) nötig ist. Machine Translation (mit Google Translate und DeepL) sind ein sehr erfolgreiches Beispiel für Big Data und KI, aber zurzeit nur zu empfehlen bei Sätzen ohne besondere Terminologie. Für die Technische Dokumentation stellt MT derzeit noch ein „süßes Gift“ dar, weil es grundsätzlich keine eindeutige Berücksichtigung von Terminologie und deren Übersetzungen gibt. Die heutige Machine Translation beruht auf dem Verarbeiten von Sätzen über mathematische Vektoren und Zuordnung von Wahrscheinlichkeiten. Ausgehend von einem quellsprachlichen Satz wird über ein abstraktes Zahlen-Mapping und über Deep-Learning eine zum Teil erstaunlich gute Übersetzung. Das ist so wundersam, dass selbst Experten nicht (genau) wissen, warum und wie das klappt. Wie man in diesen Prozess die Bedingung einbringt, dass Terminologie immer nur auf eine bestimmte Art übersetzt wird, ist eine der großen (ungelösten) Herausforderungen. Dieser Vortrag zeigt, dass agile Entwicklungsmethoden und „Industrie 4.0“ zusätzlich ein Neudenken der entwicklungsbegleitenden Technischen Dokumentation erfordern. Gerade bei agilen Entwicklungsmethoden wird ein stetig erweitertes Glossar unabdingbar und Terminologiearbeit wird so zum Kernpunkt jeder Art der technischen Kommunikation.

Als nächstes geht der Vortrag auf die Darstellung der wichtigsten Begriffsbeziehungen in sogenannten use-case-bezogenen Concept-Maps ein. Eine Concept-Map ist ein grafisches Hilfsmittel, das Beziehungen zwischen Konzepten und Ideen visuell widergibt, die gerade aufgrund ihrer Einfachheit praktikabel ist. Concept-Maps verhindern, dass die Grundstruktur einer Information „Akteur, Aktion, Objekt“ (auch als „Proposition“ bezeichnet) durch „schlechte“ Satzkonstruktionen fehlinterpretiert wird.

Schließlich geht der Vortrag darauf ein, dass gerade moderne Kommunikationsformen, z. B. über Chatbots, ein großes Feld für neue  Formen der Terminologiearbeit eröffnen: Neben den Begriffsdefinitionen und der weiterführenden Darstellung in Concept-Maps kommen nun alle Formen von Synonymen (und vermeintlichen Synonymen) aus Anwendersicht hinzu und es ergeben sich die Fragen:

  • Was hilft dem Anwender die Begriffsnormierung eines Herstellers, wenn er dessen Begriffe nicht kennt?
  • Wie kann der Chatbot Fachbegriffe akustisch richtig verstehen und wiedergeben?

Nahezu grenzenlose Synonymzuordnungen als „Wortwolken“, Begriffs-Bildzuordnungen und Hinterlegung von Aussprachen machen aus der klassischen Terminologiearbeit eigene multimediale „Big Data“-Projekte, die wohl die Basis jeder künftigen Fachkommunikation sein werden.

Über die Referenten: Dieter Gust und David Bodensohn (itl AG)

Dieter Gust ist Leiter der Abteilung für Forschung und Entwicklung bei der itl AG. Seit mehr als 30 Jahren unterstützt er als Berater und Dozent Unternehmen bei der Optimierung von Redaktionssystemumgebungen, bei der Entwicklung von optimierten Schnittstellen zu den Übersetzungsprozessen sowie bei der Einführung von Terminologie-Systemen und kontrollierter Sprache. Er war maßgeblich beteiligt an der Entwicklung der ersten Vollzeitausbildung für Technische Redakteure in Deutschland. David Bodensohn ist „Teamleiter Vertrieb Terminologie“ bei der itl AG. Seit 2017 gestaltet er als Produktmanager das Language-Management-System [i]-match und begleitete bereits zahlreiche Unternehmen bei der Prozessoptimierung mit Systemen für Autorenunterstützung und Terminologie. Durch seine Erfahrung als Übersetzungsprojektmanager kennt er zudem die entscheidenden Qualitätsfaktoren vom Erstellprozess bis zur Übersetzung und Lektorat.

Die digitalen Versorgungs-Infrastrukturen der Zukunft - Maintenance Optimierung in Smart Grids

 

Kurzbeschreibung

Der Vortrag vermittelt einen Ausblick auf die aktuellen Entwicklungen im Bereich Data Science & KI und die daraus resultierenden Möglichkeiten für Versorgungsunternehmen, neue innovative datengetriebene Anwendungsfälle zu etablieren. Insbesondere stehen dabei die Strom- und Wasser-Infrastrukturnetze im Vordergrund, für die zukünftig eine sensorbasierte Überwachung und Instandhaltung in Form eines automatisierten Monitorings, Anomalie-Detektion und Predictive Maintenance möglich sein wird. Nach der Behandlung der Fragestellung, wie sich Versorgungsunternehmen für die Data Economy fit machen und aus ihren verfügbaren Rohdaten geschäftsrelevante datengetriebene Use Cases entwickeln können, werden im zweiten Teil des Vortrages konkrete Smart Energy Anwendungsfälle vorgestellt und diskutiert.

Im ersten gezeigten Anwendungsfall geht es um Wasserverluste im Trinkwassernetz. Diese werden hautsächlich durch unentdeckte Leckagen verursacht, die aus ökologischen, ökonomischen und technischen Gesichtspunkten minimiert werden sollten. Dabei kann eine aktive Leckagekontrolle mittels Durchflussmessungen im Netz eine entscheidende Rolle spielen. Neu entwickelte Analyse-Methoden können Wasserleckagen automatisiert detektieren und in einem zweiten Schritt mittels einer virtuellen Triangulation lokalisieren. Die Datengrundlage wird dabei geliefert durch im Netz verbaute Durchfluss-Sensorik, deren Anzahl und Positionierung sich durch Simulationen optimieren lässt. Diese bilden dann die Grundlage für die Schaffung einer Smart Grid Infrastruktur und für Präzisions-Anwendungen im Trinkwassernetz, wie die schnelle Detektion und Lokalisation von Wasserleckagen.

Der zweite diskutierte Anwendungsfall behandelt die optimierte datengetriebene Wartung von Niederspannungsnetzen. Niederspannungsnetzbetreiber sind heute neuen Herausforderungen ausgesetzt, die z.B. aus der Zunahme von direkten Einspeisungen durch erneuerbare Energien resultieren. Dies erfordern ein besseres Verständnis, eine datengetriebene Optimierung und eine kontinuierliche Überwachung der Niederspannungsnetze. Die Implementierung neuer Sensorik in den Umspannstationen und Kabelverteilerschränken von Netzinseln ermöglicht neue datengetriebene Anwendungen für Netzbetreiber im Rahmen eines Smart Grids. Hierbei ist eine besonders relevante Fragestellung, ob und wie sich Netz-Anomalien (wie z.B. Kabelbrüche) im Niederspannungsnetz vor einem kritischen Netzausfall detektieren lassen und somit frühzeitig behoben werden können. Dies ist besonders für komplexe vermaschte Netzinseln wichtig, da einzelne Kabelbrüche nicht zwangsläufig direkt zu einem Stromausfall führen, jedoch die Integrität des Netzes gefährden. Basiert auf dem Aufbau einer realitätsnahen Digital-Twin-Simulationsumgebung des Niederspannungsnetzes, lassen sich durch Lastflussberechnungen detaillierte Analysen von simulierten Fehlstellen durchführen. Aus diesem Simulationsdatensatz können die Häufigkeit von detektierbaren Fehlstellen ermittelt und diese anhand einer Heat-Map visualisiert werden. Nach der Installation der entsprechenden Sensorik für eine optimale Abdeckung der Netzwerkinseln, lässt sich mittels einer automatisierten Datenanalyse- und Anomalie-Detektions-Pipeline das Niederspannungsnetz prinzipiell automatisch überwachen und die Instandhaltungskosten signifikant reduzieren. Der aktuelle Stand der Technik und erste Erfolge aus der Praxis werden diskutiert.

 

Über den Referenten: Dr. Rene Fassbender (OmegaLambdaTec GmbH)
Dr. Rene Fassbender ist Gründer und Geschäftsführer des 2015 gegründeten Startups OmegaLambdaTec – Data Science Services mit Sitz am Gate Garching. Er studierte Physik & Astronomie an der Universität Heidelberg und promovierte 2007 an der LMU München in Astrophysik.

Als beobachtender Astrophysiker forschte er nach der Promotion weitere sieben Jahre auf dem Gebiet der kosmischen Strukturentwicklung im frühen Universum. Die langjährige wissenschaftliche Expertise im Umgang mit großen & komplexen Datensätzen, der Extraktion von schwachen & versteckten Signalen sowie der Konzeption & Entwicklung automatisierter Data-ProcessingPipelines nutzt er jetzt mit seinem Team bei OmegaLambdaTec, um Kunden & Partnerunternehmen im Bereich Smart Data Innovationen voranzubringen. Anwendung finden die datengetriebenen Lösungen insbesondere in den Zukunftsfeldern Smart Energy, Smart Mobility, Smart Factory & Industry 4.0, MedTec und Smart City.

Die Teilnahmegebühr beträgt 95,00 EUR

Der Rechnungsbetrag ist umsatzsteuerbefreit gemäß § 4 Nr. 22 a UStG.
In der Gebühr enthalten sind das Konferenzprogramm, Getränke, Pausen-Catering und Mittags-Snacks.
Vortragsfolien und sonstige Materialien stehen ausschließlich den Teilnehmern nach der Konferenz zum Download bereit.

Corona-Hinweis: 
Da der Termin verschoben werden musste, ist die Anmeldung derzeit deaktiviert.
Sobald ein neuer Termin festgesetzt ist, wird die Anmeldung wieder freigeschaltet werden.

So finden Sie uns!

Mit den folgenden öffentlichen Verkehrsmitteln können Sie uns erreichen: Tram 20, 21, 29
Haltestelle: Hochschule München/Lothstraße (Linie 29 hält an der Endhaltestelle „Hochschule München“ auf dem Campus T-Bau)

Adresse der DocMuc Fachkonferenz:

Hochschule München
Studiengang Technische Redaktion und Kommunikation
Dachauer Str. 100a (T-Bau)
80636 München

Parkhäuser Nähe Tramstation Hauptbahnhof-Nord

CONTIPARK Tiefgarage

Karstadt Parkhaus

Parkhaus Elisenhof

CONTIPARK Tiefgarage
Hopfenstraße 6
80335 München
Öffnungszeiten: 06:30 – 21:00

Karstadt Parkhaus
Bahnhofplatz 7
80335 München
Öffnungszeiten: 07:00 – 20:30

Parkhaus Elisenhof
Luitpoldstraße 3
80335 München
Öffnungszeiten: 24/7

DocMuc

Dachauer Straße 100a, 80636 München

Teilnehmerstimmen, denn Ihre Meinung ist uns wichtig!

Michael Schwägerl

Michael Schwägerl

EOS GmbH - Electro Optical Systems

Was hat Ihnen an der DocMuc besonders gut gefallen? 

Die aktuellen Themen, wie z. B. Industrie 4.0 und Dokumentation 4.0 und die praxisnahen Fachvorträge. Des Weiteren war die Organisation sehr gut. Auf der DocMuc kann man sich mit den Studierenden und den gefragten Leuten aus der Industrie austauschen.

Konnten Sie neue Erkenntnisse gewinnen? 

Neue Erkenntnisse konnte ich im Bereich der Mobilen Dokumentation gewinnen.

Teresa Bechtle

Teresa Bechtle

BSH Hausgeräte GmbH

Was hat Ihnen an der DocMuc besonders gut gefallen? 

Die studentischen Vorträge haben mir besonders gut gefallen. Insbesondere der Vortrag über Interaktion, da der Referent das Thema sehr greifbar dargestellt hat.

Konnten Sie neue Erkenntnisse gewinnen? 

Besonders spannende Erkenntnisse konnte ich im Bereich „Gender Studies“, der in einer aktuellen Bachelorarbeit untersucht wurde, gewinnen.

Dr. Matthias Gutknecht

Dr. Matthias Gutknecht

STAR AG

Was hat Ihnen an der DocMuc besonders gut gefallen? 

Mir hat besonders die Vielfalt der Teilnehmer aus den verschiedenen Bereichen der Dokumentation gefallen. Dazu zählten Vertreter aus der Industrie, Lieferanten für Lösungen und die Professoren und Studierenden der Hochschule München.

Konnten Sie neue Erkenntnisse gewinnen? 

Ja, ich fand die Themenauswahl und Fachvorträge gut. Dadurch konnte ich einen Überblick über den zukünftigen Weg der Technischen Dokumentation erlangen.

DocMuc Logo

Jetzt für den Newsletter registieren!

Tragen Sie sich noch heute in unseren Newsletter ein. Wir benachrichtigen Sie, sobald der Ticketverkauf für die DocMuc 2018 beginnt.

Frau  Herr 




Vielen Dank für die Anmeldung. Sie erhalten in kürze eine E-Mail.